gpt4 book ai didi

python - 每个值都取决于另一个 df 查询的 Pandas 列

转载 作者:行者123 更新时间:2023-12-04 15:19:34 25 4
gpt4 key购买 nike

我面临一个复杂的问题。我有第一个数据框,其中有客户(请注意,ClientID 不是唯一的,您可以将相同的 ClientID 与不同的 TestDate 相关联):

df1 :

ClientID  TestDate
1A 2019-12-24
1B 2019-08-26
1B 2020-01-12

我有另一个“操作”数据框,指示日期和涉及哪个客户

df2 :

LineNumber  ClientID  Date          Amount
1 1A 2020-01-12 50
2 1A 2019-09-24 15
3 1A 2019-12-25 20
4 1A 2018-12-30 30
5 1B 2018-12-30 60
6 1B 2019-12-12 40

我想要的是向 df1 添加一个包含平均数量和行数的列,但仅采用 Date < TestDate 的 df2 行

例如,对于客户端 1A,我将只取第 2 行和第 4 行(因为第 1 行和第 3 行的日期晚于 TestDate),然后为 df1 获取以下输出:

预期 df1 :

ClientID  TestDate      NumberOp  MeanOp
1A 2019-12-24 2 22.5
1B 2019-08-26 1 60
1B 2020-01-12 2 50

注意:对于 1B Client 的第一行,因为 TestDate 是 2019-08-26 ,只看到一个操作(LineNumber 6 操作在 2019-12-12 中完成,所以在 testDate 之后,所以我不考虑它)。

我已经有了代码,但我必须使用 iterrows在我的 df1 ,这需要很长时间:

当前代码(工作但很长):

for index, row in df1.iterrows():
id = row['ClientID']
date = row['TestDate']
df2_known = df2.loc[df2['ClientID'] == id]
df2_known = df2_known.loc[df2_known['Date'] < date]
df1.loc[index, 'NumberOp'] = df2_known.shape[0]
df1.loc[index, 'MeanOp'] = df2_known['Amount'].mean()

我想到了使用聚合和类似 mean 的命令和 count ,但我必须按日期过滤每一行的事实是一个我无法弄清楚的大问题。非常感谢您提前提供帮助。

编辑:剩余问题:

答案编辑中给出的修复(“如果您想保留 df2 的缺失匹配键”)与我的问题不对应。

事实上,如果 df2 中的操作无法用于计算均值和计数,我想避免丢失 df1 的等效行。我将通过示例向您展示问题:

df = df2.merge(df1, on=['ClientID'], how='right')
print(df[df['ClientID'] == '5C'])

Output :
ClientID TestDate Date Amount
5C 2019-12-12 2020-01-12 50

如果我执行 groupbytransform正如答案中给出的那样,我的输出不会有任何行 CliendID == '5C' ,因为 Date < TestDateDate is null永远不会发生,所以当我这样做时线路丢失了df = df[(df['Date']<df['TestDate']) | (df['Date'].isnull())] .我个人想和CliendID == '5C'吵架在我的最终输出中,它看起来像这样:

ClientID  TestDate      NumberOp  MeanOp
5C 2019-12-12 0 NaN

最佳答案

您可以合并和转换:

df = df2.merge(df1, on=['ClientID'])
#filter based on condition
df = df[df['Date']<df['TestDate']]
#get the mean and count into new columns
df['MeanOp'] = df.groupby(['ClientID'])['Amount'].transform('mean')
df['NumberOp'] = df.groupby(['ClientID'])['Amount'].transform('count')
#drop duplicates and irrelevant columns
df = df.drop(['Amount','Date','LineNumber'],1).drop_duplicates()

输出:

  ClientID    TestDate  MeanOp  NumberOp
1 1A 2019-12-24 22.5 2
4 1B 2019-08-26 70.0 1

编辑:如果您想保留 df2 的缺失匹配键:

df = df2.merge(df1, on=['ClientID'], how='right')
df = df[(df['Date']<df['TestDate']) | (df['Date'].isnull())]
df['MeanOp'] = df.groupby(['ClientID'])['Amount'].transform('mean')
df['NumberOp'] = df.groupby(['ClientID'])['Amount'].transform('count')
df = df.drop(['Amount','Date','LineNumber'],1).drop_duplicates()

例子:

df1:

ClientID TestDate
0 1A 2019-12-24
1 1B 2019-08-26
2 1C 2019-08-26

output:

ClientID TestDate MeanOp NumberOp
1 1A 2019-12-24 22.5 2
4 1B 2019-08-26 70.0 1
5 1C 2019-08-26 NaN 0

更新:根据对帖子的编辑,如果您想按(Client_ID, TestDate) 对它们进行分组:

df = df2.merge(df1, on=['ClientID'], how='right')
df = df[(df['Date']<df['TestDate']) | (df['Date'].isnull())]
df['MeanOp'] = df.groupby(['ClientID','TestDate'])['Amount'].transform('mean')
df['NumberOp'] = df.groupby(['ClientID','TestDate'])['Amount'].transform('count')
df = df.drop(['Amount','Date','LineNumber'],1).drop_duplicates()

输出:

df1
ClientID TestDate
0 1A 2019-12-24
1 1B 2019-08-26
2 1B 2020-01-12
3 1C 2019-08-26

df2
LineNumber ClientID Date Amount
0 1 1A 2020-01-12 50
1 2 1A 2019-09-24 15
2 3 1A 2019-12-25 20
3 4 1A 2018-12-30 30
4 5 1B 2018-12-30 60
5 6 1B 2019-12-12 40

df
ClientID TestDate MeanOp NumberOp
1 1A 2019-12-24 22.5 2
4 1B 2019-08-26 60.0 1
6 1B 2020-01-12 50.0 2
8 1C 2019-08-26 NaN 0

关于python - 每个值都取决于另一个 df 查询的 Pandas 列,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63629740/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com