gpt4 book ai didi

Hadoop dfs 错误 : INFO ipc. 客户端:重试连接到服务器:localhost

转载 作者:可可西里 更新时间:2023-11-01 14:15:34 25 4
gpt4 key购买 nike

我已经成功设置了一个有 6 个节点的 Hadoop 集群(master,salve<1-5>)

  • 格式化namenode -> 完成
  • 启动和关闭集群 -> 工作正常
  • 执行“hadoop dfs -ls/”出现此错误 -> 错误:信息 ipc.Client:重试连接到服务器:localhost

我试图查看正在运行的服务:

sudo netstat -plten | grep java
hduser@ubuntu:~$ sudo netstat -plten | grep java

tcp 0 0 0.0.0.0:50070 0.0.0.0:* 监听 1000 93307 11384/java
TCP 0 0 0.0.0.0:44440 0.0.0.0:* 听 1000 92491 11571/java
TCP 0 0 0.0.0.0:40633 0.0.0.0:* LISTEN 1000 92909 11758/java
TCP 0 0 0.0.0.0:50010 0.0.0.0:* 监听 1000 93449 11571/java
TCP 0 0 0.0.0.0:50075 0.0.0.0:* 听 1000 93673 11571/java
TCP 0 0 0.0.0.0:50020 0.0.0.0:* 监听 1000 93692 11571/java
TCP 0 0 127.0.0.1:40485 0.0.0.0:* 听 1000 93666 12039/java
TCP 0 0 0.0.0.0:44582 0.0.0.0:* 听 1000 93013 11852/java
TCP 0 0 10.42.43.1:54310 0.0.0.0:* LISTEN 1000 92471 11384/java
TCP 0 0 10.42.43.1:54311 0.0.0.0:* LISTEN 1000 93290 11852/java
TCP 0 0 0.0.0.0:50090 0.0.0.0:* 听 1000 93460 11758/java
TCP 0 0 0.0.0.0:34154 0.0.0.0:* 听 1000 92179 11384/java
TCP 0 0 0.0.0.0:50060 0.0.0.0:* 监听 1000 94200 12039/java
TCP 0 0 0.0.0.0:50030 0.0.0.0:* 听 1000 93550 11852/java

它的主 IP 绑定(bind)到端口 54310 和 54311 而不是本地主机(环回)。

conf-site.xml 已正确配置:

<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hduser/hadoop/tmp</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://master:54310</value>
</property>
</configuration>

为什么期望 localhost 绑定(bind)到 54310 而不是我在此处配置的 master hich。帮助表示赞赏。我该如何解决这个问题??

干杯

最佳答案

显然,在我添加新的 hadoop(1.0.4) bin 目录之前,有人将旧的 hadoop(1.0.3) bin 目录添加到路径变量中。因此,每当我从 CLI 运行“hadoop”时,它都会执行旧 hadoop 的二进制文件而不是新的 hadoop。

解决方案:

  • 删除旧 hadoop 的整个 bin 路径

  • 关闭集群 - 退出终端

  • 登录新的终端 session

  • 启动节点

  • 已尝试 hadoop dfs -ls/ -> 工作正常!!!!很好的教训。

关于Hadoop dfs 错误 : INFO ipc. 客户端:重试连接到服务器:localhost,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/13295646/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com