gpt4 book ai didi

python - PANDAS Quantiles 根据我们的提问方式给出不同的答案

转载 作者:行者123 更新时间:2023-12-04 09:41:55 38 4
gpt4 key购买 nike

两天前的一个问题。

当您拥有大量数据时,PANDAS 可以让您在生成统计数据的同时就地过滤内容,因此您不必为所有内容创建新的数据框。现在,我怀疑这样做有细微差别,因为以两种不同的方式做事 - 一种是“智能”方式,一种是“明确”方式,给了我非常不同的答案,一种显然是正确的(明确的),一个显然是错误的(聪明的方法)。

有人可以指出我所缺少的方向吗。

这是详细信息。

我有 250 万行数据,描述了一系列不同设备类型的故障时间。其中两个的描述性统计数据如下。 (请注意,这些实际上是采矿设备,但我必须对某些东西进行 sanitizer ,所以我更换了名称)。

                                   Count        Min        Mean          Max
CC_CauseLocationEquipmentType
Coffee Machines 204136 0.000556 71.797146 23407.41667
Blenders 52424 0.008333 750.880591 23077.79167

如果我尝试获取设备故障时间的分位数,使用

print(df2.groupby("CC_CauseLocationEquipmentType").quantile([.1, .25, .5, .75,0.9,0.95,0.99,0.99999]))

然后我看到以下分位数。

                                            CC_TBF
CC_CauseLocationEquipmentType
Coffee Machines 0.10000 0.005556
0.25000 0.238889
0.50000 1.775000
0.75000 2.595833
0.90000 4.611389
0.95000 7.008125
0.99000 15.465278
0.99999 21.089619 <-- Nowhere near the max of 23407.41667
Blenders 0.10000 57.731806
0.25000 394.004375
0.50000 0.288889
0.75000 7.201528
0.90000 51.015667
0.95000 83.949833
0.99000 123.148019
0.99999 133.708716 <-- Nowhere near the max of 23077.79167

这显然是不正确的,因为 99.999% 的分位数远不及这些设备类型的最大值。 另请注意 Blender 分位数数据集中途的“重置”。我之前问过这个问题 Pandas quantiles misbehaving by... getting smaller partway through a range of percentiles?这仍未解决,但我认为这个新问题也将有助于解决该问题。

当我分别考虑分位数时,我得到了更合理的结果。使用以下代码:

print("Quantiles - type by type - Coffee Machines")
df3=df2.loc[df2['CC_CauseLocationEquipmentType'] == "Coffee Machines"]
print(df3.quantile([.1, .25, .5, .75,0.9,0.95,0.99,0.99999]) )

print("Quantiles - type by type - Blenders")
df3=df2.loc[df2['CC_CauseLocationEquipmentType'] == "Blenders"]
print(df3.quantile([.1, .25, .5, .75,0.9,0.95,0.99,0.99999]) )

我现在得到:

Quantiles - type by type - Coffee Machines
CC_TBF
0.10000 0.120556
0.25000 0.608333
0.50000 2.040556
0.75000 3.494514
0.90000 18.047917
0.95000 129.798403
0.99000 1644.764861
0.99999 23003.517729 <-- Pretty darn close to the max of 23407
Quantiles - type by type - Blenders
CC_TBF
0.10000 0.226111
0.25000 0.941667
0.50000 37.924167
0.75000 388.554444
0.90000 1955.252500
0.95000 4301.835320
0.99000 11362.310594
0.99999 22831.372845 <--- pretty darn close to the max of 23077

谁能告诉我为什么这两种不同的方法会产生如此不同的结果,以及为什么我对 groupby 的使用会给我如此奇怪、看似随意的结果? groupby 是否以某种方式使用了与我在第二种“显式”方法中所做的不同的完整数据子集?

最佳答案

非常有趣。至少在我的 Pandas (0.25.1) 版本中显然存在一个错误 df.groupby(...).quantile(<array-like>) .那codepath is different甚至在非常简单的例子上似乎也被打破了,比如:

df = pd.DataFrame(
{"A": [0., 0., 0.], "B": ["X", "Y", "Z"]}
)
result = df.groupby("B").quantile([0.5, 0.9])

虽然它适用于 2 元素版本:

df = pd.DataFrame(
{"A": [0., 0.], "B": ["X", "Y"]}
)
result = df.groupby("B").quantile([0.5, 0.9])

我会避免在类似数组的对象上使用 groupby 和分位数,直到代码被修复,即使在它现在可以工作的情况下也是如此,因为它很可能容易出错。

Blame 还显示了很多相当新鲜的更新(10 个月、16 个月)也完全处理这些代码片段。

关于python - PANDAS Quantiles 根据我们的提问方式给出不同的答案,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62295024/

38 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com