gpt4 book ai didi

hadoop - 配置多个节点后,hdfs dfs ls无法正常工作

转载 作者:行者123 更新时间:2023-12-02 21:19:13 27 4
gpt4 key购买 nike

我开始关注在线教程,以在单个本地VM上配置多个ndo。这是主节点上的主机:

127.0.0.1   localhost
192.168.96.132 hadoop
192.168.96.135 hadoop1
192.168.96.136 hadoop2

ssh:ALL:allow
sshd:ALL:allow

这是曾经起作用的命令: hdfs dfs -ls
现在,我在下面看到错误消息:
ls: Call From hadoop/192.168.96.132 to hadoop:9000 failed on connection exception: 
java.net.ConnectException: Connection refused;
For more details see: http://wiki.apache.org/hadoop/ConnectionRefused

我的配置有什么问题?我应该在哪里检查和纠正它?

非常感谢你。

最佳答案

首先尝试
ping hadoop,
ping hadoop1和
ping hadoop2。
例如:ping hadoop
然后只需尝试通过ssh连接
语法是
ssh username @ hadoop
ssh username @ hadoop1
ssh username @ hadoop2
然后查看结果以找出系统是否正在连接。

关于hadoop - 配置多个节点后,hdfs dfs ls无法正常工作,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37907249/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com