gpt4 book ai didi

python - 如何高效地将大数据加载到pandas中?

转载 作者:行者123 更新时间:2023-12-04 16:05:21 25 4
gpt4 key购买 nike

这个问题在这里已经有了答案:





"Large data" workflows using pandas

(16 个回答)


3年前关闭。




我正在处理一个非常宽的数据集(1005 行 * 590,718 列,1.2G)。将如此大的数据集加载到 Pandas 数据帧中会完全由于内存不足而导致代码失败。

我知道 Spark 可能是 Pandas 处理大型数据集的一个很好的替代方案,但是 Pandas 中是否有任何可行的解决方案来减少加载大型数据时的内存使用量?

最佳答案

你可以用

pandas.read_csv(filename, chunksize = chunksize)

关于python - 如何高效地将大数据加载到pandas中?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48989597/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com