- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我有一个包含两列的 dataframe
。我想构建所有连续行的总和,其中 column 0
的值为 -1
。
我的 dataframe
看起来……像这样:
0 2
1 3
-1 4
-1 7
0 2
-1 0
-1 1
-1 3
5 0
所需的输出应该是这样的:
0 2
1 3
-1 11
0 2
-1 4
5 0
第二列中的值都等于或大于零。如果有帮助,第一列的值等于或大于 -1
。我的方法是一个循环,我在其中创建第二个 dataframe
,然后推回不等于 -1
的每个值并累加,当我找到一个 -1
,但我想,这种方法效率不高。伪代码:
sum = 0
found = False
for row in dataframe:
if row[0] != -1:
if found:
new_df.append([-1, sum])
sum = 0
found = False
new_df.append(row)
elif row[0] == -1:
found = True
sum += row[1]
是否有内置的 python 或 pandas 函数可以用来实现我的目标?
最佳答案
在我看来,这里有必要创建 Series
以 100% 确定 helper 组的值是否与 -1
之外的值相同,因此添加了 0.5
到 index
以区分:
df = df.reset_index(drop=True)
m = df['a'] == -1
s = m.ne(m.shift()).cumsum()[m].reindex(df.index).fillna(df.index.to_series().add(.5))
df = df.groupby(s).agg({'a':'first', 'b':'sum'}).reset_index(drop=True)
print (df)
a b
0 0 2
1 1 3
2 -1 11
3 -1 4
4 0 2
5 5 0
解释:
df = pd.DataFrame({'a': [0, 1, -1, -1, 0, -1, -1, -1, 5],
'b': [2, 3, 4, 7, 2, 0, 1, 3, 0]})
print (df)
a b
0 0 2
1 1 3
2 -1 4
3 -1 7
4 0 2
5 -1 0
6 -1 1
7 -1 3
8 5 0
如有必要,首先创建默认索引,因为解决方案中使用了唯一索引值:
df = df.reset_index(drop=True)
然后为 -1
和其他值创建连续的组:
m = df['a'] == -1
print (df.assign(groups = m.ne(m.shift()).cumsum()))
a b groups
0 0 2 1
1 1 3 1
2 -1 4 2
3 -1 7 2
4 0 2 3
5 -1 0 4
6 -1 1 4
7 -1 3 4
8 5 0 5
然后使用 boolean indexing
仅过滤 -1
值(通过掩码 b
)和另一个不匹配的值通过 Series.reindex
转换为 NaN
s :
m = df['a'] == -1
print (df.assign(groups = m.ne(m.shift()).cumsum(),
filtered = m.ne(m.shift()).cumsum()[m].reindex(df.index)))
a b groups filtered
0 0 2 1 NaN
1 1 3 1 NaN
2 -1 4 2 2.0
3 -1 7 2 2.0
4 0 2 3 NaN
5 -1 0 4 4.0
6 -1 1 4 4.0
7 -1 3 4 4.0
8 5 0 5 NaN
然后用 0.5
的索引值替换缺失值 - -1
的组和替换的 NaN
的值永远不会发生冲突:
m = df['a'] == -1
print (df.assign(groups = m.ne(m.shift()).cumsum(),
filtered = m.ne(m.shift()).cumsum()[m].reindex(df.index),
idx = df.index.to_series().add(.5),
groups1 = m.ne(m.shift()).cumsum()[m].reindex(df.index).fillna(df.index.to_series().add(.5))))
a b groups filtered idx groups1
0 0 2 1 NaN 0.5 0.5
1 1 3 1 NaN 1.5 1.5
2 -1 4 2 2.0 2.5 2.0
3 -1 7 2 2.0 3.5 2.0
4 0 2 3 NaN 4.5 4.5
5 -1 0 4 4.0 5.5 4.0
6 -1 1 4 4.0 6.5 4.0
7 -1 3 4 4.0 7.5 4.0
8 5 0 5 NaN 8.5 8.5
然后是帮助程序 Series
传递给 groupby
并聚合 sum
用于第二列和 first
用于第一列GroupBy.agg
最后一个由 DataFrame.reset_index
删除索引使用 drop=True
:
df = df.groupby(s).agg({'a':'first', 'b':'sum'}).reset_index(drop=True)
print (df)
a b
0 0 2
1 1 3
2 -1 11
3 -1 4
4 0 2
5 5 0
另一种解决方案,更简单且性能更好:
df = df.reset_index(drop=True)
m = df['a'] == -1
s = df.reset_index()
.groupby(m.ne(m.shift()).cumsum()[m])
.agg({'index':'first', 'b':'sum'})
.set_index('index')
.assign(a = -1)
df = df[~m].append(s, sort=True).sort_index()
print (df)
a b
0 0 2
1 1 3
2 -1 11
4 0 2
5 -1 4
8 5 0
解释:
首先是必要的默认索引:
df = df.reset_index(drop=True)
然后将 -1
的列与 bool 掩码进行比较:
m = df['a'] == -1
通过 reset_index
将索引转换为列,不使用 drop
参数:
print (df.reset_index())
index a b
0 0 0 2
1 1 1 3
2 2 -1 4
3 3 -1 7
4 4 0 2
5 5 -1 0
6 6 -1 1
7 7 -1 3
8 8 5 0
使用 shift
和 cumsum
创建连续的组,并按 -1
组的掩码过滤:
print (m.ne(m.shift()).cumsum()[m])
2 2
3 2
5 4
6 4
7 4
Name: a, dtype: int32
按索引列聚合first
,按b
列聚合sum
:
print (df.reset_index()
.groupby(m.ne(m.shift()).cumsum()[m])
.agg({'index':'first', 'b':'sum'}))
index b
a
2.0 2 11
4.0 5 4
将 index
列转换为 index
by DataFrame.set_index
:
print(df.reset_index()
.groupby(m.ne(m.shift()).cumsum()[m])
.agg({'index':'first', 'b':'sum'})
.set_index('index'))
b
index
2 11
5 4
通过 DataFrame.assign
添加 a
列,常量为 -1
:
s = (df.reset_index()
.groupby(m.ne(m.shift()).cumsum()[m])
.agg({'index':'first', 'b':'sum'})
.set_index('index')
.assign(a = -1))
print (s)
b a
index
2 11 -1
5 4 -1
最后按boolean indexing
过滤掉-1
行通过 ~
的反向掩码:
print (df[~m])
a b
0 0 2
1 1 3
4 0 2
8 5 0
然后通过DataFrame.append
向原始数据添加新数据:
print (df[~m].append(s, sort=True))
a b
0 0 2
1 1 3
4 0 2
8 5 0
2 -1 11
5 -1 4
最后DataFrame.sort_index
对于相同的顺序:
print (df[~m].append(s, sort=True).sort_index())
a b
0 0 2
1 1 3
2 -1 11
4 0 2
5 -1 4
8 5 0
关于python - 在特定条件下聚合 Dataframe 中的行值,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57972745/
我有一个 Cassandra 集群,里面有 4 个表和数据。 我想使用聚合函数(sum,max ...)发出请求,但我在这里读到这是不可能的: http://www.datastax.com/docu
我有以下两张表 Table: items ID | TITLE 249 | One 250 | Two 251 | Three 我投票给这些: Table: votes VID | IID | u
这个问题在这里已经有了答案: Update MongoDB field using value of another field (12 个答案) 关闭 3 年前。 我想根据另一个“源”集合的文档中
我的收藏包含以下文件。我想使用聚合来计算里面有多少客户,但我遇到了一些问题。我可以获得总行数,但不能获得总(唯一)客户。 [{ _id: "n001", channel: "Kalip
我有下表 Id Letter 1001 A 1001 H 1001 H 1001 H 1001 B 1001 H 1001 H 1001
得到一列的表 ABC。 “创建”的日期列。所以样本值就像; created 2009-06-18 13:56:00 2009-06-18 12:56:00 2009-06-17 14:02:0
我有一个带有数组字段的集合: {[ name:String buyPrice:Int sellPrice:Int ]} 我试图找到最低和最高买入/卖出价格。在某些条目中,买入或卖出价格为零
我有以下问题: 在我的 mongo db 中,我有以下结构: { "instanceId": "12", "eventId": "0-1b", "activityType":
下面给出的是我要在其上触发聚合查询的 Elasticsearch 文档。 { "id": 1, "attributes": [ { "fieldId": 1,
我正在使用 Django 的 aggregate query expression总计一些值。最终值是一个除法表达式,有时可能以零作为分母。如果是这种情况,我需要一种方法来逃避,以便它只返回 0。 我
我正在学习核心数据,特别是聚合。 当前我想要做的事情:计算表中在某些条件上具有逆关系的多对关系的记录数。 目前我正在这样做: NSExpression *ex = [NSExpression expr
我需要有关 Delphi 中的 ClientDatasets 的一些帮助。 我想要实现的是一个显示客户的网格,其中一列显示每个客户的订单数量。我将 ClientDataset 放在表单上并从 Delp
我的集合有 10M 个文档,并且有一个名为 movieId 的字段;该文档具有以下结构: { "_id" : ObjectId("589bed43e3d78e89bfd9b779"), "us
这个问题已经有答案了: What is the difference between association, aggregation and composition? (21 个回答) 已关闭 9
我在 elasticsearch 中有一些类似于这些示例的文档: { "id": ">", "list": [ "a", "b", "c" ] } { "id"
我正在做一些聚合。但是结果完全不是我所期望的,似乎它们没有聚合索引中与我的查询匹配的所有文档,在这种情况下 - 它有什么好处? 例如,首先我做这个查询: {"index":"datalayer","t
假设我在 ES 中有这些数据。 | KEY | value | |:-----------|------------:| | A |
可能在我的文档中,我有一个被分析的文本字段。我只是在ElasticSearch AggregationAPI中迷路了。我需要2种不同情况的支持: 情况A)结果是带有计数标记(条款)的篮子下降。 情况B
我正在为网上商店构建多面过滤功能,如下所示: Filter on Brand: [ ] LG (10) [ ] Apple (5) [ ] HTC (3) Filter on OS: [ ] Andr
我有一个父/子关系并且正在搜索 child 。 是否可以在父属性上创建聚合? 例如parent 是 POST,children 是 COMMENT。如果父项具有“类别”属性,是否可以搜索 COMMEN
我是一名优秀的程序员,十分优秀!