gpt4 book ai didi

scala - Spark数据框为每个现有行添加一行

转载 作者:行者123 更新时间:2023-12-04 17:31:15 25 4
gpt4 key购买 nike

我有一个包含以下列的数据框:

groupid,unit,height
----------------------
1,in,55
2,in,54

我想用单位= cm和height = height * 2.54的其他行创建另一个数据框。

生成的数据帧:

groupid,unit,height
----------------------
1,in,55
2,in,54
1,cm,139.7
2,cm,137.16

不知道如何使用spark udf并在此处爆炸。
任何帮助表示赞赏。
提前致谢。

最佳答案

您可以使用dataframe创建另一个需要更改的withColumn,然后uniondataframes都设置为

import sqlContext.implicits._
import org.apache.spark.sql.functions._

val df = Seq(
(1, "in", 55),
(2, "in", 54)
).toDF("groupid", "unit", "height")

val df2 = df.withColumn("unit", lit("cm")).withColumn("height", col("height")*2.54)

df.union(df2).show(false)

你应该有
+-------+----+------+
|groupid|unit|height|
+-------+----+------+
|1 |in |55.0 |
|2 |in |54.0 |
|1 |cm |139.7 |
|2 |cm |137.16|
+-------+----+------+

关于scala - Spark数据框为每个现有行添加一行,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45003332/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com