gpt4 book ai didi

java - 名称节点 : java.net.BindException

转载 作者:可可西里 更新时间:2023-11-01 16:19:54 24 4
gpt4 key购买 nike

大家好,我遇到了一个非常奇怪的问题。我正在通过从我的机器访问它来在另一个虚拟机上安装 HBase 和 hadoop。现在我已经正确安装了 hadoop,然后将其运行 ./start-all.sh,我看到了所有进程都在完美运行。所以我做了 jps,我看到了
工作追踪器
任务追踪器
名称节点
二级名称节点
数据节点

一切都运行良好。现在当我设置 hbase 然后启动 hadoop 和 Hbase 时,我看到 namenode 没有运行并且在日志中(来自 namenode 日志文件)我得到了这个异常

java.lang.InterruptedException: sleep interrupted
at java.lang.Thread.sleep(Native Method)
at org.apache.hadoop.hdfs.server.namenode.DecommissionManager$Monitor.run(DecommissionManager.java:65)
at java.lang.Thread.run(Thread.java:662)
2012-05-19 08:46:07,493 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: Number of transactions: 0 Total time for transactions(ms): 0Number of transactions batched in Syncs: 0 Number of syncs: 0 SyncTimes(ms): 0
2012-05-19 08:46:07,516 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: java.net.BindException: Problem binding to localhost/23.21.195.24:54310 : Cannot assign requested address
at org.apache.hadoop.ipc.Server.bind(Server.java:227)
at org.apache.hadoop.ipc.Server$Listener.<init>(Server.java:301)
at org.apache.hadoop.ipc.Server.<init>(Server.java:1483)
at org.apache.hadoop.ipc.RPC$Server.<init>(RPC.java:545)
at org.apache.hadoop.ipc.RPC.getServer(RPC.java:506)
at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:294)
at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:497)
at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1268)
at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1277)
Caused by: java.net.BindException: Cannot assign requested address
at sun.nio.ch.Net.bind(Native Method)
at sun.nio.ch.ServerSocketChannelImpl.bind(ServerSocketChannelImpl.java:126)
at sun.nio.ch.ServerSocketAdaptor.bind(ServerSocketAdaptor.java:59)
at org.apache.hadoop.ipc.Server.bind(Server.java:225)
... 8 more

2012-05-19 08:46:07,516 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: SHUTDOWN_MSG:



我检查了端口并一次又一次地修改所有 conf 文件,但没有找到解决方案。如果有人有想法,请指导我-
非常感谢

最佳答案

根据您的评论,您很可能与主机文件有关。

首先,您应该取消注释 127.0.0.1 localhost 条目,这是一个基本条目。

其次,您是否已将 hadoop 和 hbase 设置为与外部可访问服务一起运行 - 我不太了解 hbase,但对于 hadoop,服务需要绑定(bind)到非本地主机地址才能进行外部访问,因此您的主人$HADOOP_HOME/conf 中的从属文件需要命名实际的机器名称(如果没有 DNS 服务器,则为 IP 地址)。您的任何配置文件都不应提及 localhost,并且应使用主机名或 IP 地址。

关于java - 名称节点 : java.net.BindException,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/10663839/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com