gpt4 book ai didi

java - 不使用spark-submit.sh时,Spark如何知道Yarn资源管理器在哪里运行?

转载 作者:行者123 更新时间:2023-12-02 13:26:01 26 4
gpt4 key购买 nike

我对 Spark 很陌生,我正在尝试在 yarn 集群模式下从我的应用程序内部启动 Spark 作业(不使用 Spark-submit.sh),并且我正在尝试弄清楚该作业如何知道在哪里Yarn ResourceManager 正在运行。我已经做到了

SparkConf sConf = new SparkConf().setMaster("yarn-cluster").set("spark.driver.memory", "10g");

但我无法配置的是 Yarn ResourceManager 的位置。关于我如何去做有什么想法吗?我有一个集群设置,其中 Yarn RM 与应用程序不在同一台计算机上运行。

最佳答案

这些属性可以在 yarn-site.xml 中找到,或者位于 HADOOP_CONF_DIRYARN_CONF_DIR 环境变量中,这些变量可以设置为操作系统级别,或在 spark-env.sh 中。

在非 HA 部署中,您正在寻找 yarn.resourcemanager.address

关于java - 不使用spark-submit.sh时,Spark如何知道Yarn资源管理器在哪里运行?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43369700/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com