gpt4 book ai didi

python - 加快 Pandas 中 csv 文件的条件行读取速度?

转载 作者:行者123 更新时间:2023-12-04 17:24:26 24 4
gpt4 key购买 nike

我从这个 post 修改了一行有条件地从 csv 文件中读取行:

filename=r'C:\Users\Nutzer\Desktop\Projects\UK_Traffic_Data\test.csv'

df = (pd.read_csv(filename, error_bad_lines=False) [lambda x: x['Accident_Index'].str.startswith('2005')])

这条线非常适用于小型测试数据集。但是,我确实有一个很大的 csv 文件要读取,并且读取该文件需要很长时间。实际上,最终会达到 NotebookApp.iopub_data_rate_limit。我的问题是:

  1. 有没有办法改进此代码及其性能?
  2. “Accident_Index”列中的记录已排序。因此,如果达到“Accident_Index”不等于 str.startswith('2005') 的值,则中断读取语句可能是一种解决方案。您对如何做到这一点有什么建议吗?

这是一些示例数据:

enter image description here

所需的输出应该是包含前六条记录的 pandas 数据框。

最佳答案

我们最初可以只读取我们想要使用上述条件过滤的特定列(假设这会显着减少读取开销)。

#reading the mask column
df_indx = (pd.read_csv(filename, error_bad_lines=False,usecols=['Accident_Index'])
[lambda x: x['Accident_Index'].str.startswith('2005')])

然后我们可以使用此列中的值来使用 skiprows 从文件中读取剩余的列和 nrows属性,因为它们是输入文件中的排序值

df_data= (pd.read_csv(filename,    
error_bad_lines=False,header=0,skiprows=df_indx.index[0],nrows=df_indx.shape[0]))
df_data.columns=['Accident_index','data']

这将给出我们想要的数据的一个子集。我们可能不需要单独获取列名。

enter image description here

关于python - 加快 Pandas 中 csv 文件的条件行读取速度?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/64284584/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com