gpt4 book ai didi

dataframe - pyspark 相当于 pandas groupby + apply on column

转载 作者:行者123 更新时间:2023-12-04 02:01:11 29 4
gpt4 key购买 nike

我有一个 spark DataFrame,我想计算 groupby 之后变量的唯一值的数量。

在 Pandas 中,我可以通过以下方式获得它:df.groupby('UserName').apply(lambda x: x['Server'].nunique())
df 时如何获得相同的结果是pyspark 数据框吗?

最佳答案

您可以使用 countDistinctagg :

df.groupBy('UserName').agg(countDistinct('Server').alias('Server'))

关于dataframe - pyspark 相当于 pandas groupby + apply on column,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47183167/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com