gpt4 book ai didi

python - 在 PySpark 日期列中获取每年的最新日期

转载 作者:太空宇宙 更新时间:2023-11-03 23:52:35 29 4
gpt4 key购买 nike

我有一个这样的表:

+----------+-------------+
| date|BALANCE_DRAWN|
+----------+-------------+
|2017-01-10| 2.21496454E7|
|2018-01-01| 4.21496454E7|
|2018-01-04| 1.21496454E7|
|2018-01-07| 4.21496454E7|
|2018-01-10| 5.21496454E7|
|2019-01-01| 1.21496454E7|
|2019-01-04| 2.21496454E7|
|2019-01-07| 3.21496454E7|
|2019-01-10| 1.21496454E7|
|2020-01-01| 5.21496454E7|
|2020-01-04| 4.21496454E7|
|2020-01-07| 6.21496454E7|
|2020-01-10| 3.21496454E7|
|2021-01-01| 2.21496454E7|
|2021-01-04| 1.21496454E7|
|2021-01-07| 2.21496454E7|
|2021-01-10| 3.21496454E7|
|2022-01-01| 4.21496454E7|
|2022-01-04| 5.21496454E7|
|2022-01-07|2.209869511E7|
|2022-01-10|3.209869511E7|
+----------+-------------+

有没有办法过滤这个数据框,所以我得到这样的东西:

+----------+-------------+
| date|BALANCE_DRAWN|
+----------+-------------+
|2017-01-10| 2.21496454E7|
|2018-01-10| 5.21496454E7|
|2019-01-10| 1.21496454E7|
|2020-01-10| 3.21496454E7|
|2021-01-10| 3.21496454E7|
|2022-01-10|3.209869511E7|
+----------+-------------+

即获取每年的最新日期和相应的 BALANCE_DRAWN 行。

我设法得到它,但它只适用于 1 种情况,代码如下:

df = df.groupby([f.year("date")]).agg(f.last("BALANCE_DRAWN"))

但输出仅为年份:

+----------+-------------+
| date|BALANCE_DRAWN|
+----------+-------------+
|2017 | 2.21496454E7|
|2018 | 5.21496454E7|
|2019 | 1.21496454E7|
|2020 | 3.21496454E7|
|2021 | 3.21496454E7|
|2022 |3.209869511E7|
+----------+-------------+

结果很好,但我需要让它更灵活。 (不只是年份)

更新:也许 max() 可以以某种方式使用。 (试了一下,会更新的)

更新 2:接受的答案做到了!

最佳答案

df = df.withColumn('year', year(df['date']))
.groupBy(df['year'])
.agg(max(df['date']), first(df['BALANCE_DRAWN']))

关于python - 在 PySpark 日期列中获取每年的最新日期,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58853922/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com