gpt4 book ai didi

python - 在 Jupyter Notebook 中读取一个巨大的 .csv 文件

转载 作者:行者123 更新时间:2023-12-05 02:07:57 25 4
gpt4 key购买 nike

我正在尝试从 Jupyter Notebook (Python) 中的 .csv 文件读取数据

.csv文件8.5G,7000万行,30列

当我尝试读取 .csv 时,出现错误。

下面是我的代码

import pandas as pd

log = pd.read_csv('log_20100424.csv', engine = 'python')

我也试过用pyarrow,但是没用。

import pandas as pd
from pyarrow import csv`

log = csv.read('log_20100424.csv').to_pandas()

我的问题是:

如何在 Jupyter Notebook 中读取一个巨大的(8.5G).csv 文件

还有其他方法可以读取巨大的 .csv 文件吗?

我的笔记本电脑有 8GB RAM,运行 64 位 Windows 10 和 i5-8265U 1.6Ghz。

最佳答案

即使 Pandas 可以处理海量数据,Jupyter Notebook 也做不到。要读取巨大的 CSV 文件,您需要分 block 进行。我遇到了类似的情况,Jupyter Notebook 内核会死掉,我不得不重新开始。试试这个 - Pandas Error Jupyter Notebook

关于python - 在 Jupyter Notebook 中读取一个巨大的 .csv 文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/61393542/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com