gpt4 book ai didi

azure - az synapse Spark 作业提交

转载 作者:行者123 更新时间:2023-12-03 03:40:05 25 4
gpt4 key购买 nike

根据文档,使用 az synapse Spark 作业提交,我可以使用 --arguments 传递参数。到目前为止一切顺利。
但是,我无法弄清楚如何在代码中实际访问这些参数。这是我目前的努力:

val conf = new SparkConf().setAppName("foo")
val sc = new SparkContext(conf)
val spark = SparkSession.builder.appName("foo").getOrCreate()
val start_time = DateTimeFormatter.ofPattern("yyyy-MM-dd HH:mm").format(LocalDateTime.now)
val appID = sc.getConf.getAppId


//let's get some arguments
val inputArgs = spark.sqlContext.getConf("spark.driver.args").split("\\s+")
//val inputArgs = sc.getConf.get("spark.driver.args").split("\\s+")

其中任何一行都会引发以下异常:

22/03/25 19:07:45 ERROR ApplicationMaster: User class threw exception: java.util.NoSuchElementException: spark.driver.args
java.util.NoSuchElementException: spark.driver.args

那么,如何读取 Scala 代码中的参数呢?

最佳答案

好吧,我把事情想得太复杂了。

def main(args: Array[String]) {
...

val foo = args(0)

关于azure - az synapse Spark 作业提交,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/71622378/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com