gpt4 book ai didi

apache-spark - 创建 StreamingContext 时出错

转载 作者:行者123 更新时间:2023-12-03 07:08:47 25 4
gpt4 key购买 nike

我打开 Spark shell

spark-shell --packages org.apache.spark:spark-streaming-kafka_2.10:1.6.0

然后我想创建一个流上下文

import org.apache.spark._
import org.apache.spark.streaming._


val conf = new SparkConf().setMaster("local[2]").setAppName("NetworkWordCount").set("spark.driver.allowMultipleContexts", "true")
val ssc = new StreamingContext(conf, Seconds(1))

我遇到了异常:

org.apache.spark.SparkException: Only one SparkContext may be running in this JVM (see SPARK-2243). To ignore this error, set spark.driver.allowMultipleContexts = true. The currently running SparkContext was created at:

最佳答案

当您打开spark-shell时,已经创建了一个流上下文。它称为 sc,意味着您不需要创建配置对象。只需使用现有的 sc 对象即可。

val ssc = new StreamingContext(sc,Seconds(1))

我们将使用 val 代替 var

关于apache-spark - 创建 StreamingContext 时出错,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35588509/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com