gpt4 book ai didi

dataframe - PySpark 中 Panda 的 value_counts() 相当于什么?

转载 作者:行者123 更新时间:2023-12-02 14:42:24 24 4
gpt4 key购买 nike

我有以下 python/pandas 命令:

df.groupby('Column_Name').agg(lambda x: x.value_counts().max()

我在其中获取 DataFrameGroupBy 对象中所有列的值计数。

如何在 PySpark 中执行此操作?

最佳答案

或多或少是一样的:

spark_df.groupBy('column_name').count().orderBy('count')

在 groupBy 中,您可以有多个由 , 分隔的列

例如groupBy('column_1', 'column_2')

关于dataframe - PySpark 中 Panda 的 value_counts() 相当于什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51063624/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com