gpt4 book ai didi

hadoop - 连接CDH 5.4中的 yarn 簇上的 Spark

转载 作者:行者123 更新时间:2023-12-02 21:36:45 26 4
gpt4 key购买 nike

我试图了解连接到远程服务器的“概念”。我在使用CDH5.4的CentOS上拥有4台服务器
我想要做的是在所有这四个节点上的 yarn 上连接 Spark 。
我的问题是我不明白如何将HADOOP_CONF_DIR设置为指定的here。我应该在哪里为该变量设置什么值?然后我是否需要在所有四个节点上设置此变量,或者仅主节点就足够了?

文档说:“确保HADOOP_CONF_DIR或YARN_CONF_DIR指向包含Hadoop集群的(客户端)配置文件的目录”。
在这里问之前,我已经阅读了许多与此类似的问题。请让我知道如何解决这个问题。我能够在所有节点上以独立模式运行spark和pyspark。

谢谢你的帮助。
阿什什

最佳答案

Where and what value should i set for this variable?



变量HADOOP_CONF_DIR应该指向包含yarn-site.xml的目录。通常,您将其设置为 ~/.bashrc。我找到了CDH的文档。
http://archive.cloudera.com/cdh5/cdh/5/hadoop/hadoop-project-dist/hadoop-common/ClusterSetup.html

基本上,所有节点都需要具有由环境变量指向的配置文件。

Once all the necessary configuration is complete, distribute the files to the HADOOP_CONF_DIR directory on all the machines

关于hadoop - 连接CDH 5.4中的 yarn 簇上的 Spark ,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31670106/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com