gpt4 book ai didi

scala - 读取的值不是 org.apache.spark.SparkContext 的成员

转载 作者:行者123 更新时间:2023-12-04 17:53:17 24 4
gpt4 key购买 nike

scala 的版本是 2.11.8 ; jdk 是 1.8 ; Spark 是 2.0.2

我尝试在 the offical site of spark apache 中运行 LDA 模型的示例,我从以下句子中收到错误消息:

val dataset = spark.read.format("libsvm")
.load("data/libsvm_data.txt")

错误消息是:

Error:(49, 25) value read is not a member of org.apache.spark.SparkContext val dataset = spark.read.format("libsvm") ^



enter image description here

我不知道如何解决它。

最佳答案

看起来您正在尝试调用 readSparkContext , 而不是 SQLContextSparkSession :

// New 2.0.+ API: create SparkSession and use it for all purposes:
val session = SparkSession.builder().appName("test").master("local").getOrCreate()
session.read.load("/file") // OK

// Old <= 1.6.* API: create SparkContext, then create a SQLContext for DataFrame API usage:
val sc = new SparkContext("local", "test") // used for RDD operations only
val sqlContext = new SQLContext(sc) // used for DataFrame / DataSet APIs

sqlContext.read.load("/file") // OK
sc.read.load("/file") // NOT OK

关于scala - 读取的值不是 org.apache.spark.SparkContext 的成员,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40957224/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com