gpt4 book ai didi

python - 使用 HDF5 和 Pandas 通过分块读取数据

转载 作者:太空宇宙 更新时间:2023-11-03 12:37:48 26 4
gpt4 key购买 nike

当从 CSV 的子集查询内存中的数据时,我总是这样做:

df = pd.read_csv('data.csv', chunksize=10**3)

chunk1 = df.get_chunk()
chunk1 = chunk1[chunk1['Col1'] > someval]

for chunk in df:
chunk1.append(chunk[chunk['Col1'] >someval])

我最近开始玩 HDF5,但我无法做到这一点,因为 TableIterator 对象没有 get_chunk() 方法或接受 next()

df = pd.read_hdf('data.h5', chunksize=10**3)
df.get_chunk()
---------------------------------------------------------------------------
AttributeError Traceback (most recent call last)
<ipython-input-19-xxxxxxxx> in <module>()
----> 1 df.get_chunk()

AttributeError: 'TableIterator' object has no attribute 'get_chunk'

有什么解决方法吗? (我知道我可以使用 pandas 从磁盘上的 hdf5 进行查询,但为此我想尝试这种方式)

最佳答案

在这种情况下使用 HDF 索引确实有意义,因为它效率更高。

这是一个小演示:

生成测试 DataFrame(1000 万行,3 列):

In [1]: df = pd.DataFrame(np.random.randint(0,10**7,(10**7,3)),columns=list('abc'))

In [2]: df.info()
<class 'pandas.core.frame.DataFrame'>
RangeIndex: 10000000 entries, 0 to 9999999
Data columns (total 3 columns):
a int32
b int32
c int32
dtypes: int32(3)
memory usage: 114.4 MB

In [3]: df.shape
Out[3]: (10000000, 3)

将 DF 保存到 HDF 文件。确保列 a已编入索引(data_columns=['a',...]data_columns=True - 索引所有 列)

fn = r'c:/tmp/test.h5'
store = pd.HDFStore(fn)
store.append('test', df, data_columns=['a'])
store.close()
del df

从 HDF 文件中测试读取:

fn = r'c:/tmp/test.h5'
chunksize = 10**6
someval = 100

时间:

以 block 的形式读取 HDF,并将过滤后的 block 连接到生成的 DF 中

In [18]: %%timeit
...: df = pd.DataFrame()
...: for chunk in pd.read_hdf(fn, 'test', chunksize=chunksize):
...: df = pd.concat([df, chunk.ix[chunk.a < someval]], ignore_index=True)
...:
1 loop, best of 3: 2min 22s per loop

以 block 的形式读取 HDF(有条件地 - 通过 HDF 索引过滤数据)并将 block 连接到生成的 DF 中:

In [19]: %%timeit
...: df = pd.DataFrame()
...: for chunk in pd.read_hdf(fn, 'test', chunksize=chunksize, where='a < someval'):
...: df = pd.concat([df, chunk], ignore_index=True)
...:
10 loops, best of 3: 79.1 ms per loop

结论:通过索引搜索 HDF(使用 where=<terms> )比读取所有内容并在内存中过滤快 1795 倍:

In [20]: (2*60+22)*1000/79.1
Out[20]: 1795.19595448799

关于python - 使用 HDF5 和 Pandas 通过分块读取数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40348945/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com