gpt4 book ai didi

hadoop - 错误:找不到或加载主类org.apache.hadoop.hdfs.server.namenode.NameNode尝试了所有解决方案,仍然存在错误

转载 作者:行者123 更新时间:2023-12-02 21:09:08 26 4
gpt4 key购买 nike

我正在按照教程安装hadoop。使用hadoop 1.x进行了解释,但是我使用的是hadoop-2.6.0

在执行以下cmd之前,我已经成功完成了所有步骤。

bin/hadoop namenode -format



执行上述命令时,出现以下错误。

Error: Could not find or load main class org.apache.hadoop.hdfs.server.namenode.NameNode



我的hadoop-env.sh文件
 The java implementation to use.
export JAVA_HOME="C:/Program Files/Java/jdk1.8.0_74"

# The jsvc implementation to use. Jsvc is required to run secure datanodes
# that bind to privileged ports to provide authentication of data transfer
# protocol. Jsvc is not required if SASL is configured for authentication of
# data transfer protocol using non-privileged ports.
#export JSVC_HOME=${JSVC_HOME}

export HADOOP_PREFIX="/home/582092/hadoop-2.6.0"

export HADOOP_HOME="/home/582092/hadoop-2.6.0"
export HADOOP_COMMON_HOME=$HADOOP_HOME
#export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HADOOP_HDFS_HOME=$HADOOP_HOME
export PATH=$PATH:$HADOOP_PREFIX/bin

export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$HADOOP_HOME/share/hadoop/hdfs/hadoop-hdfs-2.6.0.jar

export HADOOP_CONF_DIR=${HADOOP_CONF_DIR:-"/etc/hadoop"}

core-site.xml

core-site.xml Image

hdfs-site.xml

dfs.data.dir /home/582092/hadoop-dir/datadir dfs.name.dir /home/582092/hadoop-dir/namedir



请帮助我解决此问题。

最佳答案

此问题背后的一个原因可能是用户定义的HDFS_DIR环境变量。这是由脚本(如libexec/hadoop-functions.sh中的以下行)拾取的:

HDFS_DIR=${HDFS_DIR:-"share/hadoop/hdfs"}
...
if [[ -z "${HADOOP_HDFS_HOME}" ]] &&
[[ -d "${HADOOP_HOME}/${HDFS_DIR}" ]]; then
export HADOOP_HDFS_HOME="${HADOOP_HOME}"
fi

解决方案是避免定义环境变量 HDFS_DIR

问题注释中的建议是正确的–使用 hadoop classpath命令来识别 hadoop-hdfs-*.jar文件是否存在于类路径中。在我的情况下,他们不见了。

关于hadoop - 错误:找不到或加载主类org.apache.hadoop.hdfs.server.namenode.NameNode尝试了所有解决方案,仍然存在错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40888460/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com