gpt4 book ai didi

python - 如何使用pyspark仅对spark数据框中的一列进行排序?

转载 作者:行者123 更新时间:2023-12-04 03:56:37 26 4
gpt4 key购买 nike

我有一个像这样的 Spark 数据框:

|  time  | col1 | col2 |
|----------------------|
| 123456 | 2 | A |
| 123457 | 4 | B |
| 123458 | 7 | C |
| 123459 | 5 | D |
| 123460 | 3 | E |
| 123461 | 1 | F |
| 123462 | 9 | G |
| 123463 | 8 | H |
| 123464 | 6 | I |
现在我需要对“col1”-列进行排序,但其他列必须保持相同的顺序:
(使用pyspark)
|  time  | col1 | col2 | col1_sorted |
|-----------------------------------|
| same | same | same | sorted |
|-----------------------------------|
| 123456 | 2 | A | 1 |
| 123457 | 4 | B | 2 |
| 123458 | 7 | C | 3 |
| 123459 | 5 | D | 4 |
| 123460 | 3 | E | 5 |
| 123461 | 1 | F | 6 |
| 123462 | 9 | G | 7 |
| 123463 | 8 | H | 8 |
| 123464 | 6 | I | 9 |
在此先感谢您的帮助!

最佳答案

对于 Spark 2.3.1 ,您可以尝试 pandas_udf ,见下文(假设原始数据帧按 time 列排序)

from pyspark.sql.functions import pandas_udf, PandasUDFType
from pyspark.sql.types import StructType

schema = StructType.fromJson(df.schema.jsonValue()).add('col1_sorted', 'integer')

@pandas_udf(schema, PandasUDFType.GROUPED_MAP)
def get_col1_sorted(pdf):
return pdf.sort_values(['time']).assign(col1_sorted=sorted(pdf["col1"]))

df.groupby().apply(get_col1_sorted).show()
+------+----+----+-----------+
| time|col1|col2|col1_sorted|
+------+----+----+-----------+
|123456| 2| A| 1|
|123457| 4| B| 2|
|123458| 7| C| 3|
|123459| 5| D| 4|
|123460| 3| E| 5|
|123461| 1| F| 6|
|123462| 9| G| 7|
|123463| 8| H| 8|
|123464| 6| I| 9|
+------+----+----+-----------+

关于python - 如何使用pyspark仅对spark数据框中的一列进行排序?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63775680/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com