gpt4 book ai didi

pyspark - 查找 Pyspark 各列的比率

转载 作者:行者123 更新时间:2023-12-02 18:17:34 25 4
gpt4 key购买 nike

假设我有以下 DF。

df = sqlContext.createDataFrame(sc.parallelize(
[('a',0, 1,1), ('b',1, 3,4), ('c',2, 5,7)]), ('acc_no','col_1', 'col_2','sum'))

+------+-----+-----+---+
|acc_no|col_1|col_2|sum|
+------+-----+-----+---+
| a| 0| 1| 1|
| b| 1| 3| 4|
| c| 2| 5| 7|
+------+-----+-----+---+

我想找到为 col_1col_2 相对于 sum 列的百分比创建一个新列,如下所示。

+------+-----+-----+---+---------+---------+
|acc_no|col_1|col_2|sum|perc_col1|perc_col2|
+------+-----+-----+---+---------+---------+
| a| 0| 1| 1| 0| 100|
| b| 1| 3| 4| 25| 75|
| c| 2| 5| 7| 29| 71|
+------+-----+-----+---+---------+---------+

我知道我可以使用以下代码为每个 col_1 和 col_2 添加百分比列

df.withColumn('perc_col1',col('col_1')/col('sum')*100).withColumn('perc_col2',col('col_2')/col('sum')*100).show()

但是如果我有数百列并且我想避免编写数百行代码,我该怎么办?

最佳答案

在这种情况下,您可以使用带有 df.select 的 for 循环来代替 withcolumn,并使用 .alias 重命名f 字符串

col_list = ['col_1','col_2'] #list of multiple columns
out = df.select("*",*[F.round((F.col(i)/F.col("sum"))*100,2).alias(f"perc_{i}")
for i in col_list])

out.show()
+------+-----+-----+---+----------+----------+
|acc_no|col_1|col_2|sum|perc_col_1|perc_col_2|
+------+-----+-----+---+----------+----------+
| a| 0| 1| 1| 0.0| 100.0|
| b| 1| 3| 4| 25.0| 75.0|
| c| 2| 5| 7| 28.57| 71.43|
+------+-----+-----+---+----------+----------+

或者用 withcolumn 循环:

col_list = ['col_1','col_2']
for i in col_list:
df = df.withColumn(f"perc_{i}",F.round((F.col(i)/F.col("sum"))*100,2))
df.show()

关于pyspark - 查找 Pyspark 各列的比率,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/71378453/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com