gpt4 book ai didi

apache-spark - 无需提交Spark即可在集群上运行Spark代码吗?

转载 作者:行者123 更新时间:2023-12-04 05:37:26 28 4
gpt4 key购买 nike

我想开发一个Scala应用程序,该应用程序连接一个主机并运行一段代码。我想在不使用spark-submit的情况下实现这一目标。这可能吗?特别是我想知道以下代码是否可以从我的机器上运行并连接到集群:

val conf = new SparkConf()
.setAppName("Meisam")
.setMaster("yarn-client")

val sc = new SparkContext(conf)

val sqlContext = new SQLContext(sc)
val df = sqlContext.sql("SELECT * FROM myTable")

...

最佳答案

添加一个conf
val conf = new SparkConf()
.setAppName("Meisam")
.setMaster("yarn-client")
.set("spark.driver.host", "127.0.0.1");

关于apache-spark - 无需提交Spark即可在集群上运行Spark代码吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33956619/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com