gpt4 book ai didi

scala - Spark : normalize each row of a DataFrame

转载 作者:行者123 更新时间:2023-12-02 18:21:37 24 4
gpt4 key购买 nike

我有一个 Spark DataFrame,如下所示

df.show()
+------+------+------+
| col1| col2| col3|
+------+------+------+
| 5.0| 5.0| 0.0|
| 2.0| 3.0| 5.0|
| 4.0| 1.0| 10.0|
+------+------+------+

我想规范化每个单独的行,这样操作后,新列将如下所示:

+--------+--------+--------+
|new_col1|new_col2|new_col3|
+--------+--------+--------+
| 0.5| 0.5| 0.0|
| 0.2| 0.3| 0.5|
|0.266667|0.066667|0.666667|
+--------+--------+--------+

更正式地说,我想要应用的操作是:

对于每一行,

    new_col_i = col_i / (col_1 + col_2 + col_3)

我需要以编程方式执行此操作,而不是列出所有列,因为我的 DataFrame 有很多列。

当前解决方案:

我当前想到的解决方案是创建一个列来表示每行所有条目的总和,然后将每一列除以该总和列。

var newDF = df.withColumn("total", df.columns.map(c => col(c)).reduce((c1, c2) => c1 + c2))

for (c <- Array("col1", "col2", "col3")) {
newDF = newDF.withColumn("normalized_" + c, col(c).divide(col("total")))
}
newDF.show()

+----+----+----+-----+-------------------+-------------------+------------------+
|col1|col2|col3|total| normalized_col1| normalized_col2| normalized_col3|
+----+----+----+-----+-------------------+-------------------+------------------+
| 5.0| 5.0| 0.0| 10.0| 0.5| 0.5| 0.0|
| 2.0| 3.0| 5.0| 10.0| 0.2| 0.3| 0.5|
| 4.0| 1.0|10.0| 15.0|0.26666666666666666|0.06666666666666667|0.6666666666666666|
+----+----+----+-----+-------------------+-------------------+------------------+

有什么替代方法可以使代码更简洁吗?

最佳答案

您的解决方案是正确的,并且不能改进太多。您可以通过用 foldLeft 替换 for 循环来摆脱 var 的非惯用用法,并使用更多的语法糖,但除此之外将保持不变:

val withTotal = df.withColumn("total", df.columns.map(col).reduce(_ + _))

val result = df.columns.foldLeft(withTotal) {
(tmp, c) => tmp.withColumn(s"new_$c", $"$c" / $"total")
}
.drop(df.columns: _*)
.drop("total")

关于scala - Spark : normalize each row of a DataFrame,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47641076/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com