gpt4 book ai didi

hadoop MapReduce 随机播放错误 : Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out

转载 作者:可可西里 更新时间:2023-11-01 16:55:39 25 4
gpt4 key购买 nike

我在尝试使用多个输入文件运行 MapReduce 作业时遇到以下错误。尽管我可以只使用一个输入文件来运行 MapReduce 作业。我浏览了一些帖子,几乎每个人都说存在防火墙问题或未在/etc/hosts 文件中正确设置主机名。即使是这种情况,无论输入是单个文件还是目录(多个文件),我的 MapReduce 作业都会失败

下面是控制台的输出。

    INFO input.FileInputFormat: Total input paths to process : 2
WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
WARN snappy.LoadSnappy: Snappy native library not loaded
INFO mapred.JobClient: Running job: job_201505201700_0005
INFO mapred.JobClient: map 0% reduce 0%
INFO mapred.JobClient: map 50% reduce 0%
INFO mapred.JobClient: map 100% reduce 0%
INFO mapred.JobClient: map 100% reduce 16%

INFO mapred.JobClient: map 100% reduce 0%
INFO mapred.JobClient: Task Id : attempt_201505201700_0005_r_000000_0, Status : FAILED
Shuffle Error: Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out.
WARN mapred.JobClient: Error reading task outputAMR-DEV02.local
WARN mapred.JobClient: Error reading task outputAMR-DEV02.local
INFO mapred.JobClient: map 100% reduce 16%
INFO mapred.JobClient: map 100% reduce 0%
INFO mapred.JobClient: Task Id : attempt_201505201700_0005_r_000000_1, Status : FAILED
Shuffle Error: Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out.
WARN mapred.JobClient: Error reading task outputEmbeddedQASrv.local
WARN mapred.JobClient: Error reading task outputEmbeddedQASrv.local
INFO mapred.JobClient: map 100% reduce 16%

注意。 EmbeddedQASrv.local(ip address. 192.168.115.80) 和AMR-DEV02.local(ip address. 192.168.115.79) 是我的从节点主机名。

我的 Hadoop 集群由 1 个主节点和 2 个从节点组成。

这是我从控制台运行的命令。(emp_dept_data 是一个包含 empData 和 deptData 文件的目录)

hadoop jar testdata/joindevice.jar JoinDevice emp_dept_data output15

但是,如果我运行此命令,MapReduce 作业会成功(单个文件作为输入)

hadoop jar testdata/joindevice.jar JoinDevice emp_dept_data/empData output16

这是我的/etc/hosts 文件条目设置主节点。然而,相同的条目也被复制到我的从属节点。

127.0.0.1               amr-dev01.local amr-dev01 localhost
::1 localhost6.localdomain6 localhost6
#Hadoop Configurations
192.168.115.78 master
192.168.115.79 slave01
192.168.115.80 slave02

我不知道哪里出了问题,也不知道在哪里检查确切的根本原因。

最佳答案

实际问题出在/etc/hosts 文件上。我评论了我的本地主机配置。amr-dev01.local amr-dev01 本地主机而不是指定不同的名称,如 master、slave01、slave02...我使用了相同的主机名

192.168.115.78 amr-dev01192.168.115.79 amr-dev02

关于hadoop MapReduce 随机播放错误 : Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30352446/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com