gpt4 book ai didi

hadoop - 在运行时(通过spark-submit)将一些hadoop配置添加到spark应用程序?

转载 作者:行者123 更新时间:2023-12-02 20:57:40 29 4
gpt4 key购买 nike

我想将键值对发送到我的spark应用程序,如下所示:

mapreduce.input.fileinputformat.input.dir.recursive=true

我了解可以通过以下方式从代码中执行此操作:
sc.hadoopConfiguration.set("mapreduce.input.fileinputformat.input.dir.recursive","true")

但是我希望能够在运行时通过spark-submit发送此属性。这可能吗?

最佳答案

绝对!

spark-submit(以及spark-shell)支持--conf PROP=VALUE--properties-file FILE选项,这允许您指定此类任意配置选项。然后,您可以使用SparkConf .get函数获取传递的值:

val conf = new SparkConf()

val mrRecursive =
conf.get("spark.mapreduce.input.fileinputformat.input.dir.recursive")
sc.hadoopConfiguration.set("spark.mapreduce.input.fileinputformat.input.dir.recursive", mrRecursive)
Spark-submit/spark-shell --help:
  --conf PROP=VALUE           Arbitrary Spark configuration property.
--properties-file FILE Path to a file from which to load extra properties. If not
specified, this will look for conf/spark-defaults.conf.

关于[动态]加载属性的Spark文档: https://spark.apache.org/docs/latest/configuration.html

关于hadoop - 在运行时(通过spark-submit)将一些hadoop配置添加到spark应用程序?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44056655/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com