gpt4 book ai didi

scala - 在spark的子串中使用长度函数

转载 作者:行者123 更新时间:2023-12-04 04:47:36 26 4
gpt4 key购买 nike

我试图在 DataFrame 中的子字符串函数中使用长度函数
但它给出了错误

val substrDF = testDF.withColumn("newcol", substring($"col", 1, length($"col")-1))

下面是错误
 error: type mismatch;
found : org.apache.spark.sql.Column
required: Int

我正在使用 2.1。

最佳答案

可以使用函数“expr”:

val data = List("first", "second", "third")
val df = sparkContext.parallelize(data).toDF("value")
val result = df.withColumn("cutted", expr("substring(value, 1, length(value)-1)"))
result.show(false)

输出:
+------+------+
|value |cutted|
+------+------+
|first |firs |
|second|secon |
|third |thir |
+------+------+

关于scala - 在spark的子串中使用长度函数,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46353360/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com