gpt4 book ai didi

hadoop - 如何避免 Hadoop 中的 Map/Reduce 任务失败

转载 作者:可可西里 更新时间:2023-11-01 16:39:42 25 4
gpt4 key购买 nike

我有一个迭代次数太多的循环和一个在 Reducer 函数中计算量很大的函数。

while (context.getCounter(SOLUTION_FLAG.SOLUTION_FOUND).getValue() < 1 && itrCnt < MAX_ITR)

MAX_ITR 是迭代次数 - 用户输入

问题是当我在 Hadoop 集群上运行它时出现超时错误并且 Reducer 任务被终止

17/05/06 21:09:43 INFO mapreduce.Job: Task Id : attempt_1494129392154_0001_r_000000_0, Status : FAILED
AttemptID:attempt_1494129392154_0001_r_000000_0 Timed out after 600 secs

我应该怎么做才能避免超时? (我猜是心跳信号。)

最佳答案

超时的原因可能是 reducer 中的长时间运行计算没有将作业进度 ststus 报告回 Hadoop 框架。您可以尝试使用以下命令将超时间隔从默认的 600 秒增加。

mapred.task.timeout=1800000

这里有更多reference对此。

如果这些设置不起作用,请考虑重新检查代码。代码逻辑也可能存在问题。

关于hadoop - 如何避免 Hadoop 中的 Map/Reduce 任务失败,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43827764/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com