gpt4 book ai didi

hadoop - 服务器java.io.IOException上的IP更改后:copy.getGenerationStamp()

转载 作者:行者123 更新时间:2023-12-02 21:42:45 25 4
gpt4 key购买 nike

我正在使用水槽将数据加载到HDFS。最近服务器上发生了IP更改,因此之后我根本无法启动从属服务器。我在服务器和数据节点上有很多数据,因此重新格式化不是一个选择。即使主节点调用从属节点并尝试启动从属节点也不会启动。以下是我看到的异常,因为从属服务器仍在尝试引用主服务器的旧IP:

java.io.IOException: replica.getGenerationStamp() < block.getGenerationStamp()
WARN org.apache.hadoop.hdfs.server.protocol.InterDatanodeProtocol: Failed to obtain replica info for block (=BP-967573188-192.168.XX.XX-1413284771002:blk_1073757987_17249) from datanode (=192.168.XX.XX:50010)
java.io.IOException: replica.getGenerationStamp() < block.getGenerationStamp(), block=blk_1073757987_17249, replica=ReplicaWaitingToBeRecovered, blk_1073757987_17179, RWR
getNumBytes() = 81838954
getBytesOnDisk() = 81838954
getVisibleLength()= -1
getVolume() = /var/hadoop/data/current
getBlockFile() = /var/hadoop/data/current/BP-967573188-192.168.XX.XX-1413284771002/current/rbw/blk_1073757987
unlinked=false
at org.apache.hadoop.hdfs.server.datanode.fsdataset.impl.FsDatasetImpl.initReplicaRecovery(FsDatasetImpl.java:1613)
at org.apache.hadoop.hdfs.server.datanode.fsdataset.impl.FsDatasetImpl.initReplicaRecovery(FsDatasetImpl.java:1579)
at org.apache.hadoop.hdfs.server.datanode.DataNode.initReplicaRecovery(DataNode.java:2094)
at org.apache.hadoop.hdfs.server.datanode.DataNode.callInitReplicaRecovery(DataNode.java:2105)
at org.apache.hadoop.hdfs.server.datanode.DataNode.recoverBlock(DataNode.java:2173)
at org.apache.hadoop.hdfs.server.datanode.DataNode.access$400(DataNode.java:140)
at org.apache.hadoop.hdfs.server.datanode.DataNode$2.run(DataNode.java:2079)
at java.lang.Thread.run(Thread.java:745)

我已经更新了配置文件/ etc / hosts,但是没有任何效果。请建议

最佳答案

在hadoop conf目录的slaves文件中更新datanode的新IP地址。

问候
Jyoti Ranjan Panda

关于hadoop - 服务器java.io.IOException上的IP更改后:copy.getGenerationStamp(),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27480519/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com