- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
Pandas "Group By" Query on Large Data in HDFStore?
我已经尝试了答案中的示例,只是我希望能够按两列进行分组。
基本上,修改代码看起来像
with pd.get_store(fname) as store:
store.append('df',df,data_columns=['A','B','C'])
print "store:\n%s" % store
print "\ndf:\n%s" % store['df']
# get the groups
groups = store.select_column('df',['A', 'B']).unique()
print "\ngroups:%s" % groups
我尝试了多种选择 A 列和 B 列的方法,但无法使其工作。
抛出错误KeyError:“在表中找不到列[['A','B']]”
支持吗?
谢谢
最佳答案
store.select_column(...)
仅选择单个列。
稍微修改链接的原始代码:
import numpy as np
import pandas as pd
import os
fname = 'groupby.h5'
# create a frame
df = pd.DataFrame({'A': ['foo', 'foo', 'foo', 'foo',
'bar', 'bar', 'bar', 'bar',
'foo', 'foo', 'foo'],
'B': [1,1,1,2,
1,1,1,2,
2,2,1],
'C': ['dull', 'dull', 'shiny', 'dull',
'dull', 'shiny', 'shiny', 'dull',
'shiny', 'shiny', 'shiny'],
'D': np.random.randn(11),
'E': np.random.randn(11),
'F': np.random.randn(11)})
# create the store and append, using data_columns where I possibily
# could aggregate
with pd.get_store(fname,mode='w') as store:
store.append('df',df,data_columns=['A','B','C'])
print "\ndf:\n%s" % store['df']
# get the groups
A = store.select_column('df','A')
B = store.select_column('df','B')
idx = pd.MultiIndex.from_arrays([A,B])
groups = idx.unique()
# iterate over the groups and apply my operations
l = []
for (a,b) in groups:
grp = store.select('df',where = [ 'A=%s and B=%s' % (a,b) ])
# this is a regular frame, aggregate however you would like
l.append(grp[['D','E','F']].sum())
print "\nresult:\n%s" % pd.concat(l, keys = groups)
os.remove(fname)
这是结果
起始帧(与原始示例不同,B 列现在是整数,只是为了清楚起见)
df:
A B C D E F
0 foo 1 dull 0.993672 -0.889936 0.300826
1 foo 1 dull -0.708760 -1.121964 -1.339494
2 foo 1 shiny -0.606585 -0.345783 0.734747
3 foo 2 dull -0.818121 -0.187682 -0.258820
4 bar 1 dull -0.612097 -0.588711 1.417523
5 bar 1 shiny -0.591513 0.661931 0.337610
6 bar 1 shiny -0.974495 0.347694 -1.100550
7 bar 2 dull 1.888711 1.824509 -0.635721
8 foo 2 shiny 0.715446 -0.540150 0.789633
9 foo 2 shiny -0.262954 0.957464 -0.042694
10 foo 1 shiny 0.193822 -0.241079 -0.478291
独特的群体。我们选择需要独立分组的每一列,然后采用结果索引并构建多索引。这些是生成的多索引的唯一组。
groups:[('foo', 1) ('foo', 2) ('bar', 1) ('bar', 2)]
最终结果。
result:
foo 1 D -0.127852
E -2.598762
F -0.782213
2 D -0.365629
E 0.229632
F 0.488119
bar 1 D -2.178105
E 0.420914
F 0.654583
2 D 1.888711
E 1.824509
F -0.635721
dtype: float64
关于python - "Group By"HDFStore 中大数据的多个列,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26068632/
我将所有数据都放入了 HDFStore(是的!),但是如何从中取出数据.. 我在我的 HDFStore 中保存了 6 个数据帧作为 frame_table。这些表格中的每一个看起来如下所示,但长度各不
我确定这可能非常简单,但我无法弄清楚如何通过日期时间索引对 Pandas HDFStore 表进行切片以获得特定范围的行。 我有一个看起来像这样的表: mdstore = pd.HDFStore(st
我有一个 pandas HDFStore,我尝试从中进行选择。我想在一个大的 np.array 中选择两个时间戳之间的数据和一个 id。以下代码可以工作,但仅在查询列表中的成员身份时才会占用过多内存。
我对 pandas' HDFStore 有一些问题速度太慢了,不幸的是我无法从这里的其他问题中找到令人满意的解决方案。 情况 我有一个很大的 DataFrame,其中大部分包含 float ,有时包含
我对 pandas' HDFStore 有一些问题速度太慢了,不幸的是我无法从这里的其他问题中找到令人满意的解决方案。 情况 我有一个很大的 DataFrame,其中大部分包含 float ,有时包含
清楚我做错了什么吗? 我正在尝试 pandas HDFStore.select start 和 stop 选项,但没有什么区别。 我使用的命令是: import pandas as pd hdf =
我希望将我读入的两个表存储在数据框中。 我正在将 h5 文件读入我的代码中: with pd.HDFStore(directory_path) as store: self.df = stor
我在平面文件中有数 TB 的数据(在子集中),我想使用 Python Pandas/Pytables/H5py 将这些数据转换为 HDF5 以加快查询和搜索速度。我计划使用 to_hdf 之类的方法转
我有一个 pandas HDFStore,我试图从中进行选择。我想在一个大的 np.array 中选择两个带有 id 的时间戳之间的数据。以下代码有效,但仅在查询列表中的成员资格时占用过多内存。如果我
问题:如何创建一个允许对 pandas HDFStore 对象中的多个列进行迭代的生成器? 我正在尝试为 pandas HDFStore 对象创建一个包装类。我试图实现的功能之一是能够按给定的 blo
我在具有多索引的 HDFStore 中将frame_table 称为“数据”。在 DataFrame 中,它可能看起来像这样 var1 var2 va
以下代码片段: HDFStore = pandas.io.pytables.HDFStore lock = threading.RLock() with lock:
Pandas "Group By" Query on Large Data in HDFStore? 我已经尝试了答案中的示例,只是我希望能够按两列进行分组。 基本上,修改代码看起来像 with pd
我通过 Pandas 将大量数据帧导出到一系列 HDFStore 文件。我需要能够根据需要快速提取每个数据帧的最新记录。 设置: File path: /data/storage_X100.hdf
这很好用: cols = ['X', 'Y'] ind = [('A', 1), ('B', 2)] ind = pd.MultiIndex.from_tuples(index, names=['fo
假设我有一个 store = pd.HDFStore('cache/cache.h5') 我有一个存储的 DataFrame store['myDF'] 如果在我的代码中,我这样做: a = stor
我是 pytables 的新手,对存储压缩的 pandas DataFrame 有疑问。我当前的代码是: import pandas # HDF5 file name H5name="C:\\MyDi
我想知道为什么 HDFStore 会在 pandas 中的字符串列上发出警告。我认为它可能是我真实数据库中的 NaN,但在这里尝试它会给我两个列的警告,即使一个没有混合并且只是字符串。 使用 .13.
我正在试验不同的 pandas 友好存储方案来存储报价数据。迄今为止最快的(就读取和写入而言)是使用具有 blosc 压缩和“固定”格式的 HDFStore。 store = pd.HDFStore(
我有以下 DataFrame,它作为名为数据的 frame_table 存储在 HDFStore 对象中: shipmentid qty catid
我是一名优秀的程序员,十分优秀!