and *> .在 reducer 中,我将处理-6ren">
gpt4 book ai didi

hadoop - 如何修复 "Task attempt_201104251139_0295_r_000006_0 failed to report status for 600 seconds."

转载 作者:可可西里 更新时间:2023-11-01 14:07:36 26 4
gpt4 key购买 nike

我编写了一个 mapreduce 作业来从数据集中提取一些信息。该数据集是用户对电影的评价。用户数约250K,电影数约300k。 map 的输出是<user, <movie, rating>*> and <movie,<user,rating>*> .在 reducer 中,我将处理这些对。

但是当我运行作业时,mapper 按预期完成,但 reducer 总是提示

Task attempt_* failed to report status for 600 seconds.

我知道这是由于无法更新状态,所以我添加了对 context.progress() 的调用在我的代码中是这样的:

int count = 0;
while (values.hasNext()) {
if (count++ % 100 == 0) {
context.progress();
}
/*other code here*/
}

不幸的是,这没有帮助。仍有许多 reduce 任务失败。

这是日志:

Task attempt_201104251139_0295_r_000014_1 failed to report status for 600 seconds. Killing!
11/05/03 10:09:09 INFO mapred.JobClient: Task Id : attempt_201104251139_0295_r_000012_1, Status : FAILED
Task attempt_201104251139_0295_r_000012_1 failed to report status for 600 seconds. Killing!
11/05/03 10:09:09 INFO mapred.JobClient: Task Id : attempt_201104251139_0295_r_000006_1, Status : FAILED
Task attempt_201104251139_0295_r_000006_1 failed to report status for 600 seconds. Killing!

顺便说一句,错误发生在reduce to copy阶段,日志说:

reduce > copy (28 of 31 at 26.69 MB/s) > :Lost task tracker: tracker_hadoop-56:localhost/127.0.0.1:34385

感谢您的帮助。

最佳答案

最简单的方法是设置这个配置参数:

<property>
<name>mapred.task.timeout</name>
<value>1800000</value> <!-- 30 minutes -->
</property>

mapred-site.xml

关于hadoop - 如何修复 "Task attempt_201104251139_0295_r_000006_0 failed to report status for 600 seconds.",我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/5864589/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com