gpt4 book ai didi

java - Hadoop 的慢任务阈值是否有助于解决竞争条件?

转载 作者:可可西里 更新时间:2023-11-01 16:55:58 24 4
gpt4 key购买 nike

我有一个关于 mapreduce.job.speculative.slowtaskthreshold 的问题。

文档说:

The number of standard deviations by which a task's ave progress-rates must be lower than the average of all running tasks' for the task to be considered too slow.

我很好奇当一个进程被认为“太慢”时会发生什么。它会杀死并重新启动它吗?就杀?我很好奇,因为我认为我可能遇到了竞争条件并且想调整参数以尽量减少问题。

来源:http://hadoop.apache.org/docs/current/hadoop-mapreduce-client/hadoop-mapreduce-client-core/mapred-default.xml

最佳答案

通过推测执行,当框架确定任务“太慢”时,它会在不同的节点上推测执行相同的任务。一旦两个任务之一成功完成,另一个任务就会被终止。

关于java - Hadoop 的慢任务阈值是否有助于解决竞争条件?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29975329/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com