gpt4 book ai didi

pandas - 如何在 dask 中并行化 groupby()?

转载 作者:行者123 更新时间:2023-12-04 21:02:38 28 4
gpt4 key购买 nike

我试过:

df.groupby('name').agg('count').compute(num_workers=1)
df.groupby('name').agg('count').compute(num_workers=4)

它们占用的时间相同,为什么 num_workers 不起作用?

谢谢

最佳答案

默认情况下,Dask 将处理多线程任务,这意味着它在您的计算机上使用单个处理器。 (请注意,如果您的数据无法放入内存,则使用 dask 仍然很有趣)

如果要使用多个处理器来计算操作,则必须使用不同的调度程序:

from dask import dataframe as dd
from dask.distributed import LocalCluster, Client

df = dd.read_csv("data.csv")

def group(num_workers):
start = time.time()
res = df.groupby("name").agg("count").compute(num_workers=num_workers)
end = time.time()
return res, end-start

print(group(4))

clust = LocalCluster()
clt = Client(clust, set_as_default=True)
print(group(4))

在这里,我使用 4 个并行进程(因为我有一个四核)创建了一个本地集群,然后设置了一个默认调度客户端,它将使用这个本地集群来执行 Dask 操作。使用 1.5 Gb 的 CSV 两列文件,标准 groupby 在我的笔记本电脑上需要大约 35 秒,而多进程只需要大约 22 秒。

关于pandas - 如何在 dask 中并行化 groupby()?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55600130/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com