gpt4 book ai didi

apache-spark - Spark 推测的新任务是否有限制?

转载 作者:行者123 更新时间:2023-12-04 15:36:59 27 4
gpt4 key购买 nike

假设我在 Spark 中以 speculation = true 运行作业。

如果任务(比如说 T1)需要很长时间,Spark 会在另一个执行器上启动任务 T1 的副本,比如 T2,而不会终止 T1。

现在,如果 T2 花费的时间也多于所有成功完成任务的中位数,Spark 是否会在另一个执行器上启动另一个任务 T3?

如果是,对新任务的产生是否有任何限制?如果不是,Spark 是否将自己限制为一个并行作业,并无限期地等待其中一个作业的完成?

最佳答案

spark TaskSetManager 负责该逻辑。它正在检查在尝试启动可推测任务时是否最多有一份原始任务正在运行。因此,在您的示例中,它不应该启动 T3,因为会有 2 个副本在运行。

您可以找到代码的相关部分here .

关于apache-spark - Spark 推测的新任务是否有限制?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59393457/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com