gpt4 book ai didi

apache-spark - 群集中HADOOP_CONF_DIR的值

转载 作者:行者123 更新时间:2023-12-04 04:16:46 24 4
gpt4 key购买 nike

我使用3个VM作为主机,使用Ambari设置了一个群集(YARN)。

在哪里可以找到HADOOP_CONF_DIR的值?

# Run on a YARN cluster
export HADOOP_CONF_DIR=XXX
./bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master yarn-cluster \ # can also be `yarn-client` for client mode
--executor-memory 20G \
--num-executors 50 \
/path/to/examples.jar \
1000

最佳答案

还要安装Hadoop。就我而言,我已将其安装在/usr/local/hadoop中

设置Hadoop环境变量

export HADOOP_INSTALL=/usr/local/hadoop

然后设置conf目录
export HADOOP_CONF_DIR=$HADOOP_INSTALL/etc/hadoop

关于apache-spark - 群集中HADOOP_CONF_DIR的值,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34333384/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com