gpt4 book ai didi

python - 具有大量条件的 pandas read_hdf

转载 作者:行者123 更新时间:2023-11-28 18:30:18 25 4
gpt4 key购买 nike

我尝试使用 pandas 库读取 64 GB 的 HDF 文件(使用 blosc 压缩)。 Dataframe 包含 3 列和 11410996915 行。我正在尝试使用 pandas.read_hdf 方法和参数 where 按索引选择具体行。问题是有时我需要获取数千行,所以在我的 where 参数中我放了这样的东西:

simMat = pd.read_hdf('global.h5','matrix', columns=['similarity'], where='index in {}'.format(listIdx))

其中 listIdx 是一个整数列表,代表我想要取回的索引。当此列表包含超过 31 个元素时,我会收到内存错误。我开始查看 pandas 库的代码,发现在文件 pytables.py 中,在类 BinOp 中有一个名为 _max_selectors 的变量,其赋值为 31。此变量在这段代码之后使用:

# if too many values to create the expression, use a filter instead
if self.op in ['==', '!='] and len(values) > self._max_selectors:

filter_op = self.generate_filter_op()
self.filter = (
self.lhs,
filter_op,
pd.Index([v.value for v in values]))
return self

使用过滤器会导致库尝试加载整个数据帧,这会引发 MemoryError。我也尝试使用值为 10 的 chunksize 参数,但它也不起作用。您知道查询具有如此大量索引的 HDF 文件的更好方法吗?

最佳答案

您可以使用以下技术:

pd.read_hdf(filename, 'key', where='index = vals')

其中 valspd.SeriesPython list 变量

也可以使用属于其他DF的列进行过滤:

In [201]: another_df = pd.DataFrame(np.random.randint(0, 100, size=(100, 3)), columns=list('abc'))

In [202]: pd.read_hdf(fn, 'test', where='a = another_df["a"]').shape
Out[202]: (573, 3)

或另一个DF的索引:

In [203]: pd.read_hdf(fn, 'test', where='index = another_df.index').shape
Out[203]: (100, 3)

演示:

设置

fn = r'D:\temp\.data\hdf\test.h5'

store = pd.HDFStore(fn)

df = pd.DataFrame(np.random.randint(0, 10**4, size=(10**5, 3)), columns=list('abc'))

store.append('test', df, data_columns=True, complib='blosc', complevel=5)

store.close()

测试

vals = pd.Series(np.random.randint(0, 100, 500))

In [196]: pd.read_hdf(fn, 'test', where='index = vals').shape
Out[196]: (98, 3)

与 Python 列表相同:

idx_list = vals.tolist()

In [197]: pd.read_hdf(fn, 'test', where='index = idx_list').shape
Out[197]: (98, 3)

关于python - 具有大量条件的 pandas read_hdf,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38027984/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com