gpt4 book ai didi

hadoop - 将文件复制到 HDFS 时出错

转载 作者:可可西里 更新时间:2023-11-01 14:32:08 34 4
gpt4 key购买 nike

我尝试在两个节点上安装 hadoop。两个节点都已启动并正在运行。 namenode 在 Ubuntu 10.10 上运行,Datanode 在 Fedora 13 上运行。将文件从本地文件系统复制到 hdfs 时遇到以下错误。

终端显示:

    12/04/12 02:19:15 INFO hdfs.DFSClient: Exception in createBlockOutputStream java.io.OException: Bad connect ack with firstBadLink as 10.211.87.162:9200
12/04/12 02:19:15 INFO hdfs.DFSClient: Abandoning block blk_-1069539184735421145_1014

namenode中的日志文件显示:

   2012-10-16 16:17:56,723 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: DatanodeRegistration(10.6.2.26:50010, storageID=DS-880164535-10.18.13.10-50010-1349721715148, infoPort=50075, ipcPort=50020):DataXceiver
java.net.NoRouteToHostException: No route to host
at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method)
at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:567)
at org.apache.hadoop.net.SocketIOWithTimeout.connect(SocketIOWithTimeout.java:206)
at org.apache.hadoop.net.NetUtils.connect(NetUtils.java:404)
at org.apache.hadoop.hdfs.server.datanode.DataXceiver.writeBlock(DataXceiver.java:282)
at org.apache.hadoop.hdfs.server.datanode.DataXceiver.run(DataXceiver.java:103)
at java.lang.Thread.run(Thread.java:662)

可用的数据节点表示为 2。我已经禁用了防火墙和 selinux。在hdfs-site.xml中也做了如下改动

dfs.socket.timeout -> 360000

dfs.datanode.socket.write.timeout -> 3600000

dfs.datanode.max.xcievers -> 1048576

两个节点都运行sun-java6-jdk,datanode包含Openjdk,但路径设置为sun java。

但同样的错误仍然存​​在。

可能的解决方案是什么。

最佳答案

那是因为你的防火墙打开了。

尝试

sudo /etc/init.d/iptables stop

如果您使用的是 Ubuntu,请执行

sudo ufw disable

这应该可以解决问题。

关于hadoop - 将文件复制到 HDFS 时出错,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/12950539/

34 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com