gpt4 book ai didi

hadoop - 数据节点和名称节点中不兼容的 clusterID

转载 作者:可可西里 更新时间:2023-11-01 15:26:59 25 4
gpt4 key购买 nike

我检查了这个站点中的解决方案。

我去(hadoop文件夹)/data/dfs/datanode改了ID。

但是,datanode文件夹中没有任何东西。

我能做什么?

感谢阅读。

如果你能帮助我,我将不胜感激。

附言

2017-04-11 20:24:05,507 WARN org.apache.hadoop.hdfs.server.common.Storage: 添加存储目录失败 [DISK]file:/tmp/hadoop-knu/dfs/data/

java.io.IOException:/tmp/hadoop-knu/dfs/data 中不兼容的 clusterID:namenode clusterID = CID-4491e2ea-b0dd-4e54-a37a-b18aaaf5383b; datanode clusterID = CID-13a3b8e1-2f8e-4dd2-bcf9-c602420c1d3d

2017-04-11 20:24:05,509 致命 org.apache.hadoop.hdfs.server.datanode.DataNode: block 池(Datanode Uuid 未分配)服务到 localhost/127.0.0.1:9010 的初始化失败。退出。

java.io.IOException: 所有指定的目录加载失败。

2017-04-11 20:24:05,509 WARN org.apache.hadoop.hdfs.server.datanode.DataNode:结束 block 池服务: block 池(Datanode Uuid 未分配)服务到 localhost/127.0.0.1:9010

核心站点.xml

<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9010</value>
</property>
</configuration>

hdfs-site.xml

<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/knu/hadoop/hadoop-2.7.3/data/dfs/namenode</value>
</property>
<property>
<name>dfs.namenode.checkpoint.dir</name>
<value>/home/knu/hadoop/hadoop-2.7.3/data/dfs/namesecondary</value>
</property>
<property>
<name>dfs.dataode.data.dir</name>
<value>/home/knu/hadoop/hadoop-2.7.3/data/dfs/datanode</value>
</property>
<property>
<name>dfs.http.address</name>
<value>localhost:50070</value>
</property>
<property>
<name>dfs.secondary.http.address</name>
<value>localhost:50090</value>
</property>
</configuration>

PS2

[knu@localhost ~]$ ls -l /home/knu/hadoop/hadoop-2.7.3/data/dfs/
drwxrwxr-x. 2 knu knu 6 4월 11 21:28 datanode
drwxrwxr-x. 3 knu knu 40 4월 11 22:15 namenode
drwxrwxr-x. 3 knu knu 40 4월 11 22:15 namesecondary

最佳答案

问题出在属性名称 dfs.datanode.data.dir 上,它被拼错为 dfs.dataode.data.dir。这会使该属性无法被识别,因此,${hadoop.tmp.dir}/hadoop-${USER}/dfs/data 的默认位置用作数据目录。

hadoop.tmp.dir 默认为 /tmp,每次重启时,该目录的内容将被删除,并强制 datanode 在启动时重新创建该文件夹。因此 不兼容的 clusterID

在格式化名称节点和启动服务之前,在 hdfs-site.xml 中编辑此属性名称。

关于hadoop - 数据节点和名称节点中不兼容的 clusterID,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43346632/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com