gpt4 book ai didi

apache-spark - GroupByKey并创建值列表pyspark sql dataframe

转载 作者:行者123 更新时间:2023-12-04 16:58:31 25 4
gpt4 key购买 nike

所以我有一个 Spark 数据框,看起来像:

a | b | c
5 | 2 | 1
5 | 4 | 3
2 | 4 | 2
2 | 3 | 7

我想按 列和列进行分组,从b列中创建值列表,而忽略c。输出数据帧将是:
a | b_list
5 | (2,4)
2 | (4,3)

我将如何使用pyspark sql数据框执行此操作?

谢谢! :)

最佳答案

以下是获取该数据框的步骤。

>>> from pyspark.sql import functions as F
>>>
>>> d = [{'a': 5, 'b': 2, 'c':1}, {'a': 5, 'b': 4, 'c':3}, {'a': 2, 'b': 4, 'c':2}, {'a': 2, 'b': 3,'c':7}]
>>> df = spark.createDataFrame(d)
>>> df.show()
+---+---+---+
| a| b| c|
+---+---+---+
| 5| 2| 1|
| 5| 4| 3|
| 2| 4| 2|
| 2| 3| 7|
+---+---+---+

>>> df1 = df.groupBy('a').agg(F.collect_list("b"))
>>> df1.show()
+---+---------------+
| a|collect_list(b)|
+---+---------------+
| 5| [2, 4]|
| 2| [4, 3]|
+---+---------------+

关于apache-spark - GroupByKey并创建值列表pyspark sql dataframe,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40945174/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com