gpt4 book ai didi

hadoop - 纱:从属DataNode尽管工作正常但仍未工作

转载 作者:行者123 更新时间:2023-12-02 21:36:04 28 4
gpt4 key购买 nike

我在Ubuntu 12.04 LTS上安装了两个节点的Haoop 2.7.1。经sbin/start-dfs.sh && sbin/start-yarn.sh确认,所有恶魔都在jps之后启动并运行。

但是,只有主节点(它兼作从节点)正在工作,而从节点的DataNode处于空闲状态。

奇怪的是,从节点的tmp文件夹正在由nm-local-dir(由我假定的ResourceManager创建)填充。

所有配置似乎都很好,我已经尝试了Internet可以建议的所有技巧,但无济于事。

有任何想法吗?

最佳答案

删除主节点和所有从节点上的本地datanode / namenode文件夹,然后执行hdfs namenode -format我认为问题在于主机和从机之间的clusterID不一致。

关于hadoop - 纱:从属DataNode尽管工作正常但仍未工作,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32138380/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com