gpt4 book ai didi

scala - 更新 Spark DataFrame 中的一些行值

转载 作者:行者123 更新时间:2023-12-01 23:30:03 24 4
gpt4 key购买 nike

我有一个数据框,我想将其合并到另一个数据框中,但只影响特定的单元格而不是整行。

旧数据框:

## +---+----+----+
## |key|val1|val2|
## +---+----+----+
## | 1| aa| ab|
## | 2| bb| bc|
## +---+----+----+

新数据框:

## +---+----+
## |key|val1|
## +---+----+
## | 2| bbb|
## +---+----+

结果:

## +---+----+----+
## |key|val1|val2|
## +---+----+----+
## | 1| aa| ab|
## | 2| bbb| bc|
## +---+----+----+

在这种情况下,键是唯一的,因此受影响的行将始终是可识别的。旧数据帧也将始终包含新数据帧中的键。

由于数据帧是不可变的,我将不得不调用 withColumn 来创建一个新的数据帧,大概是通过传入某种 UDF,但是当涉及到该 UDF 时我有点迷茫应该包含。

最佳答案

您需要使用外部联接来获得预期的输出:

scala> val oldDf = Seq((1, "aa", "ab"), (2, "bb", "bc")).toDF("key", "val1", "val2").as("old")
// oldDf: org.apache.spark.sql.Dataset[org.apache.spark.sql.Row] = [key: int, val1: string ... 1 more field]
scala> val newDf = Seq((2, "bbb")).toDF("key", "val1").as("new")
// newDf: org.apache.spark.sql.Dataset[org.apache.spark.sql.Row] = [key: int, val1: string]

scala> oldDf.join(newDf, Seq("key"), "outer").select($"key", coalesce($"new.val1", $"old.val1").alias("val1"), $"val2").show
// +---+----+----+
// |key|val1|val2|
// +---+----+----+
// | 1| aa| ab|
// | 2| bbb| bc|
// +---+----+----+

注意 coalesce 将选择new.val1old.val1 之间的第一个非空值。

关于scala - 更新 Spark DataFrame 中的一些行值,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39872844/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com