gpt4 book ai didi

scala - SPARK 数据帧错误 : cannot be cast to scala. Function2,同时使用 UDF 拆分列中的字符串

转载 作者:行者123 更新时间:2023-12-04 13:00:05 37 4
gpt4 key购买 nike

当我使用 udf 通过分隔符拆分列中的字符串时,我不断收到错误消息。我正在使用 Scala

Error: java.lang.ClassCastException: $iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$anonfun$1 cannot be cast to scala.Function2

不知道这是什么以及如何解决它。

这是我的 udf 和数据框:
val rsplit = udf((refsplit: String) => refsplit.split(":"))


+---------+--------------------+--------------------+
| user| jsites| jsites1|
+---------+--------------------+--------------------+
|123ashish|m.mangahere.co:m....|m.mangahere.co:m....|
|456ashish|m.mangahere2.co:m...|m.mangahere2.co:m...|
| ashish|m.mangahere.co:m....|m.mangahere.co:m....|
+---------+--------------------+--------------------+

列 jsites 看起来像 m.manghere.co:m.facebook.com:.msn.com 。我正在尝试使用 udf 通过 m.manghere.co:m.facebook.com:.msn.com 拆分 :

我一直收到那个错误

最佳答案

org.apache.spark.sql.functions 中提供了拆分功能

import org.apache.spark.sql.functions.{col,split}

val df = ???
df.withColumn("split sites",split(col("COLNAME"), "REGEX"))

问题有点老,希望这对其他人有帮助。干杯

关于scala - SPARK 数据帧错误 : cannot be cast to scala. Function2,同时使用 UDF 拆分列中的字符串,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37417510/

37 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com