gpt4 book ai didi

hadoop - 在 spark-submit 执行时覆盖 core-site.xml 属性值

转载 作者:可可西里 更新时间:2023-11-01 15:28:35 24 4
gpt4 key购买 nike

有没有办法在执行 spark submit 时覆盖 core-site 属性值?

我可以在 spark-env.sh 中使用 HADOOP_CONF_DIR 变量来指向一个新的核心站点文件,但我只想覆盖几个值以便为每个 spark 作业使用不同的存储帐户。

最佳答案

找到了我自己问题的答案。

hadoop相关的配置可以通过预先固定“spark.hadoop”到属性键来覆盖,然后提交给sparkconf。

即 Spark 提交--sparkconf spark.hadoop.io.file.buffer.size 12952

查看源代码: https://github.com/apache/spark/commit/b6cf1348170951396a6a5d8a65fb670382304f5b

关于hadoop - 在 spark-submit 执行时覆盖 core-site.xml 属性值,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39010791/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com