gpt4 book ai didi

python - dask 可以并行化从 csv 文件中读取数据吗?

转载 作者:太空狗 更新时间:2023-10-29 17:47:08 26 4
gpt4 key购买 nike

我正在将一个大型文本文件转换为一个 hdf 存储,以期获得更快的数据访问速度。转换工作正常,但是从 csv 文件读取不是并行完成的。它真的很慢(SSD 上一个 1GB 的文本文件大约需要 30 分钟,所以我猜它不是 IO-bound)。

有没有办法让它在多个线程中并行读取?因为它可能很重要,我目前被迫在 Windows 下运行——以防万一。

from dask import dataframe as ddf
df = ddf.read_csv("data/Measurements*.csv",
sep=';',
parse_dates=["DATETIME"],
blocksize=1000000,
)

df.categorize([ 'Type',
'Condition',
])

df.to_hdf("data/data.hdf", "Measurements", 'w')

最佳答案

是的,dask.dataframe 可以并行读取。但是你遇到了两个问题:

Pandas.read_csv 仅部分释放 GIL

默认情况下 dask.dataframe 与线程并行化,因为大多数 Pandas 可以在多个线程中并行运行(发布 GIL)。 Pandas.read_csv 是一个异常(exception),尤其是当您生成的数据帧使用对象数据类型作为文本时

dask.dataframe.to_hdf(filename) 强制顺序计算

写入单个 HDF 文件将强制进行顺序计算(并行写入单个文件非常困难。)

编辑:新解决方案

今天我会避免使用 HDF 而改用 Parquet。我可能会使用 multiprocessing 或 dask.distributed 调度程序来避免单机上的 GIL 问题。这两者的结合应该给你完整的线性缩放。

from dask.distributed import Client
client = Client()

df = dask.dataframe.read_csv(...)
df.to_parquet(...)

解决方案

因为您的数据集可能适合内存,所以使用 dask.dataframe.read_csv 与多个进程并行加载,然后立即切换到 Pandas。

import dask.dataframe as ddf
import dask.multiprocessing

df = ddf.read_csv("data/Measurements*.csv", # read in parallel
sep=';',
parse_dates=["DATETIME"],
blocksize=1000000,
)

df = df.compute(get=dask.multiprocessing.get) # convert to pandas

df['Type'] = df['Type'].astype('category')
df['Condition'] = df['Condition'].astype('category')

df.to_hdf('data/data.hdf', 'Measurements', format='table', mode='w')

关于python - dask 可以并行化从 csv 文件中读取数据吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40100176/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com