gpt4 book ai didi

hadoop - Spark Scala如何执行

转载 作者:行者123 更新时间:2023-12-02 22:07:50 25 4
gpt4 key购买 nike

我已经编写了以下代码,该代码返回“找不到类”异常。我不确定将csv文件中的数据加载到SparkSQL中需要做什么。

import org.apache.spark.SparkContext

/**

* Loading sales csv using DataFrame API

*/

object CsvDataInput {

def main(args: Array[String]) {

val sc = new SparkContext(args(0), "Csv loading example")

val sqlContext = new org.apache.spark.sql.SQLContext(sc)

val df = sqlContext.load("com.databricks.spark.csv", Map("path" -> args(1),"header"->"true"))

df.printSchema()

df.registerTempTable("data")

val aggDF = sqlContext.sql("select * from data")

println(aggDF.collectAsList())

}
}

最佳答案

尝试替换此行

import org.apache.spark.SparkContext

有了这个
import org.apache.spark.*

您将仅导入库的一部分,但使用此部分之外的类。另外,您的导入实际上是拼写错误的-应该读为 org.apache.spark.sql.SQLContext,并且您使用了其他一些与所提供的代码无关的软件包。

关于hadoop - Spark Scala如何执行,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32449957/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com