gpt4 book ai didi

scala - 在 Scala Spark 中的列上使用指数如何使其工作

转载 作者:行者123 更新时间:2023-12-01 01:16:14 31 4
gpt4 key购买 nike

这是我想要实现的代码。我收到过载错误。有解决办法吗?

import scala.math._

dF = dF.withColumn("col2",(8.333*exp($"col1")))
error: type mismatch;
found : org.apache.spark.sql.ColumnName
required: Double

如何执行像这样的指数运算?

最佳答案

您可以在 spark 中使用相同的函数

import org.apache.spark.sql.functions.exp

dF = dF.withColumn("col2",exp($"col1"))

您正在尝试使用 scala.math 中的 exp 函数,它需要 Double 但您传递的是 Column所以它不工作。 Spark 具有您可以使用的相同功能。

希望这对您有所帮助!

关于scala - 在 Scala Spark 中的列上使用指数如何使其工作,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49525998/

31 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com