gpt4 book ai didi

java - 运行 start-dfs.sh 后无法启动 namenode (hadoop 2.7.1)

转载 作者:可可西里 更新时间:2023-11-01 15:30:43 29 4
gpt4 key购买 nike

当尝试构建本地伪 Hadoop 环境时,当我尝试使用 start-dfs.sh 启动我的 namenode 时出现此错误

"Could not find or load main class org.apache.hadoop.hdfs.tools.GetConf"

我的java版本如下图

java version "1.7.0_85"
OpenJDK Runtime Environment (IcedTea 2.6.1) (7u85-2.6.1-5ubuntu0.14.04.1)
OpenJDK 64-Bit Server VM (build 24.85-b03, mixed mode)

我还更改了 hadoop-env.sh 中的行,位于 /usr/local/hadoop-2.7.1/etc/hadoop

export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64

对于etc/hadoop/core-site.xml,我把

<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>

对于etc/hadoop/hdfs-site.xml,我把

<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>

我也更改了我的/home/hduser/.bashrc 文件,添加如下行:(所有路径都是正确的)

#HADOOP VARIABLES START
export HADOOP_PREFIX =/usr/local/hadoop-2.7.1
export HADOOP_HOME=/usr/local/hadoop-2.7.1
export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64
export PATH=$PATH:$HADOOP_INSTALL/bin
export PATH=$PATH:$HADOOP_INSTALL/sbin
export HADOOP_MAPRED_HOME=${HADOOP_HOME}
export HADOOP_COMMON_HOME=${HADOOP_HOME}
export HADOOP_HDFS_HOME=${HADOOP_HOME}
export YARN_HOME=${HADOOP_HOME}
export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_PREFIX}/lib/native
export HADOOP_OPTS="-Djava.library.path=${HADOOP_PREFIX}/lib/native"
export HADOOP_CLASSPATH=$JAVA_HOME/lib/tools.jar
#HADOOP VARIABLES END

当输入start-dfs.sh时,只显示datanode,当输入start-all.sh时。 Nodemanager 和datanode 显示。

6098 NodeManager
5691 DataNode
6267 Jps

http://localhost 没有任何显示:*****/

最佳答案

首先使用此命令格式化您的名称节点 hadoop namenode -format 然后尝试从您的终端执行此命令 ./hadoop-daemon.sh start namenode
jps命令检查。

核心站点.xml:

<configuration> 
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>

hdfs-site.xml:

<configuration> 
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/path/hadoop/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/path/hadoop/datanode</value>
</property>
</configuration>

关于java - 运行 start-dfs.sh 后无法启动 namenode (hadoop 2.7.1),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33699033/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com