gpt4 book ai didi

scala - 如何找到多列的最大值?

转载 作者:行者123 更新时间:2023-12-03 20:14:55 24 4
gpt4 key购买 nike

我试图找到 Spark 数据帧中多列的最大值。每个 Column 都有一个 double 类型的值。

数据框是这样的:

+-----+---+----+---+---+
|Name | A | B | C | D |
+-----+---+----+---+---+
|Alex |5.1|-6.2| 7| 8|
|John | 7| 8.3| 1| 2|
|Alice| 5| 46| 3| 2|
|Mark |-20| -11|-22| -5|
+-----+---+----+---+---+

期望是:
+-----+---+----+---+---+----------+
|Name | A | B | C | D | MaxValue |
+-----+---+----+---+---+----------+
|Alex |5.1|-6.2| 7| 8| 8 |
|John | 7| 8.3| 1| 2| 8.3 |
|Alice| 5| 46| 3| 2| 46 |
|Mark |-20| -11|-22| -5| -5 |
+-----+---+----+---+---+----------+

最佳答案

您可以申请 greatest 到数字列的列表,如下所示:

import org.apache.spark.sql.types._
import org.apache.spark.sql.functions._
import spark.implicits._

val df = Seq(
("Alex", 5.1, -6.2, 7.0, 8.0),
("John", 7.0, 8.3, 1.0, 2.0),
("Alice", 5.0, 46.0, 3.0, 2.0),
("Mark", -20.0, -11.0, -22.0, -5.0),
).toDF("Name", "A", "B", "C", "D")

val numCols = df.columns.tail // Apply suitable filtering as needed (*)

df.withColumn("MaxValue", greatest(numCols.head, numCols.tail: _*)).
show
// +-----+-----+-----+-----+----+--------+
// | Name| A| B| C| D|MaxValue|
// +-----+-----+-----+-----+----+--------+
// | Alex| 5.1| -6.2| 7.0| 8.0| 8.0|
// | John| 7.0| 8.3| 1.0| 2.0| 8.3|
// |Alice| 5.0| 46.0| 3.0| 2.0| 46.0|
// | Mark|-20.0|-11.0|-22.0|-5.0| -5.0|
// +-----+-----+-----+-----+----+--------+

(*) 例如,过滤所有顶级 DoubleType列:
import org.apache.spark.sql.types._

val numCols = df.schema.fields.collect{
case StructField(name, DoubleType, _, _) => name
}

如果您在 Spark 2.4+ ,另一种方法是使用 array_max ,尽管在这种情况下它会涉及一个额外的转换步骤:
df.withColumn("MaxValue", array_max(array(numCols.map(col): _*)))

关于scala - 如何找到多列的最大值?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57531778/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com