gpt4 book ai didi

python - 删除具有重复索引的 pandas 行

转载 作者:IT老高 更新时间:2023-10-28 12:17:50 25 4
gpt4 key购买 nike

如何删除具有重复索引值的行?

在下面的天气 DataFrame 中,有时科学家会返回并更正观察结果 - 不是通过编辑错误的行,而是通过将重复的行附加到文件末尾。

我正在从网上读取一些自动天气数据(观测每 5 分钟发生一次,并为每个气象站编译成每月文件。)解析文件后,DataFrame 如下所示:

                      Sta  Precip1hr  Precip5min  Temp  DewPnt  WindSpd  WindDir  AtmPress
Date
2001-01-01 00:00:00 KPDX 0 0 4 3 0 0 30.31
2001-01-01 00:05:00 KPDX 0 0 4 3 0 0 30.30
2001-01-01 00:10:00 KPDX 0 0 4 3 4 80 30.30
2001-01-01 00:15:00 KPDX 0 0 3 2 5 90 30.30
2001-01-01 00:20:00 KPDX 0 0 3 2 10 110 30.28

重复案例示例:

import pandas 
import datetime

startdate = datetime.datetime(2001, 1, 1, 0, 0)
enddate = datetime.datetime(2001, 1, 1, 5, 0)
index = pandas.DatetimeIndex(start=startdate, end=enddate, freq='H')
data1 = {'A' : range(6), 'B' : range(6)}
data2 = {'A' : [20, -30, 40], 'B' : [-50, 60, -70]}
df1 = pandas.DataFrame(data=data1, index=index)
df2 = pandas.DataFrame(data=data2, index=index[:3])
df3 = df2.append(df1)

df3
A B
2001-01-01 00:00:00 20 -50
2001-01-01 01:00:00 -30 60
2001-01-01 02:00:00 40 -70
2001-01-01 03:00:00 3 3
2001-01-01 04:00:00 4 4
2001-01-01 05:00:00 5 5
2001-01-01 00:00:00 0 0
2001-01-01 01:00:00 1 1
2001-01-01 02:00:00 2 2

所以我需要 df3 最终变成:

                       A   B
2001-01-01 00:00:00 0 0
2001-01-01 01:00:00 1 1
2001-01-01 02:00:00 2 2
2001-01-01 03:00:00 3 3
2001-01-01 04:00:00 4 4
2001-01-01 05:00:00 5 5

我认为添加一列行号 (df3['rownum'] = range(df3.shape[0])) 将帮助我选择最底行的任何值DatetimeIndex,但我一直坚持找出 group_bypivot(或???)语句以使其工作。

最佳答案

我建议使用 duplicated Pandas 索引本身的方法:

df3 = df3[~df3.index.duplicated(keep='first')]

虽然所有其他方法都有效,但 .drop_duplicates 是迄今为止提供的示例中性能最差的。此外,虽然 groupby method只是性能稍差,我发现复制的方法更具可读性。

使用提供的样本数据:

>>> %timeit df3.reset_index().drop_duplicates(subset='index', keep='first').set_index('index')
1000 loops, best of 3: 1.54 ms per loop

>>> %timeit df3.groupby(df3.index).first()
1000 loops, best of 3: 580 µs per loop

>>> %timeit df3[~df3.index.duplicated(keep='first')]
1000 loops, best of 3: 307 µs per loop

请注意,您可以通过将 keep 参数更改为 'last' 来保留最后一个元素。

还应注意,此方法也适用于 MultiIndex(使用 Paul's example 中指定的 df1):

>>> %timeit df1.groupby(level=df1.index.names).last()
1000 loops, best of 3: 771 µs per loop

>>> %timeit df1[~df1.index.duplicated(keep='last')]
1000 loops, best of 3: 365 µs per loop

关于python - 删除具有重复索引的 pandas 行,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/13035764/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com