gpt4 book ai didi

scala - 如何在Dataframe上使用Spark中DataFrameNaFunctions类提供的函数?

转载 作者:行者123 更新时间:2023-12-04 05:23:23 24 4
gpt4 key购买 nike

我有一个数据框,并且我想在该数据框上使用 replace()函数之一
org.apache.spark.sql.DataFrameNaFunctions
函数。

问题:我没有在数据框实例的智能(建议)中使用这些方法。我显式导入了该类。

我找不到任何可以使我示范如何使用这些功能或如何将数据帧转换为DataFrameNaFunctions类型的东西。

我尝试使用asInstanceof[]方法强制转换它,但它引发异常。

最佳答案

这可能有点令人困惑,但说实话,这非常简单。这是一个小例子:

scala> val df = sqlContext.read.format("com.databricks.spark.csv").option("header","true").option("inferSchema","true").load("na_test.csv")
// df: org.apache.spark.sql.DataFrame = [name: string, age: int]

scala> df.show()
// +-----+----+
// | name| age|
// +-----+----+
// |alice| 35|
// | bob|null|
// | | 24|
// +-----+----+

scala> df.na.fill(10.0,Seq("age"))
// res4: org.apache.spark.sql.DataFrame = [name: string, age: int]

// scala> df.na.fill(10.0,Seq("age")).show
// +-----+---+
// | name|age|
// +-----+---+
// |alice| 35|
// | bob| 10|
// | | 24|
// +-----+---+

scala> df.na.replace("age", Map(35 -> 61,24 -> 12))).show()
// +-----+----+
// | name| age|
// +-----+----+
// |alice| 61|
// | bob|null|
// | | 12|
// +-----+----+

要访问 org.apache.spark.sql.DataFrameNaFunctions,您可以调用 .na.

关于scala - 如何在Dataframe上使用Spark中DataFrameNaFunctions类提供的函数?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36499941/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com