Du har simpelthen oprettet en dataramme, som er en forskrift af det arbejde, der skal udføres, men du har ikke udført den. For at udføre, skal du kalde .compute()
på resultatet.
Bemærk, at outputtet her ikke er en dataramme, hver partition evalueres til None
(fordi to_sql
har intet output), så det kan være renere at udtrykke dette med df.to_delayed
, noget lignende
dto_sql = dask.delayed(pd.DataFrame.to_sql)
out = [dto_sql(d, 'table_name', db_url, if_exists='append', index=True)
for d in ddf.to_delayed()]
dask.compute(*out)
Bemærk også, at om du får god parallelitet afhænger af databasedriveren og selve datasystemet.