gpt4 book ai didi

hadoop - 在hadoop中设置历史记录服务器时出错

转载 作者:行者123 更新时间:2023-12-02 21:28:50 26 4
gpt4 key购买 nike

所有数据节点均已启动并正在运行,但是在hadoop中设置历史记录服务器(mapreduce2)时仍然出现以下错误。

resource_management.core.exceptions.Fail: Execution of 'curl -sS -L -w '%{http_code}' -X PUT -T /usr/hdp/2.3.4.0-3485/hadoop/mapreduce.tar.gz 'http://ambari1.devcloud.247-inc.net:50070/webhdfs/v1/hdp/apps/2.3.4.0-3485/mapreduce/mapreduce.tar.gz?op=CREATE&user.name=hdfs&overwrite=True&permission=444''

returned status_code=403. { "RemoteException": { "exception": "IOException", "javaClassName": "java.io.IOException", "message": "Failed to find datanode, suggest to check cluster health."
}

}

最佳答案

在名称节点上,运行以下命令以确保数据节点正常运行并且可以从名称节点访问

bin/hadoop dfsadmin -report

您可以看到类似的报告
-------------------------------------------------
Datanodes available: 1 (1 total, 0 dead)

Name: 127.0.0.1:50010
Decommission Status : Normal
Configured Capacity: 176945963008 (164.79 GB)
DFS Used: 2140192768 (1.99 GB)
Non DFS Used: 42513027072 (39.59 GB)
DFS Remaining: 132292743168(123.21 GB)
DFS Used%: 1.21%
DFS Remaining%: 74.76%
Last contact: Wed Jan 06 20:04:51 IST 2016

如果看到0个数据节点,则配置一定是错误的

关于hadoop - 在hadoop中设置历史记录服务器时出错,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34995074/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com