gpt4 book ai didi

hadoop - 为什么没有明显原因杀死 map task ?

转载 作者:行者123 更新时间:2023-12-02 20:07:55 26 4
gpt4 key购买 nike

我正在运行Pig作业,该作业使用HBaseStorage从HBase(几列)中加载约800万行。作业成功完成,似乎产生了正确的结果,但是当我在作业跟踪器中查看作业详细信息时,它说创建了50个 map task ,其中28个任务成功,22个任务被杀死。减少运行罚款。通过查看被杀死的 map task 的日志,我对任务为什么被杀死的理解并不明显。实际上,成功和失败任务的日志实际上是相同的,并且两个任务都需要花费一些合理的时间。为什么要创建所有这些 map task ,然后将其杀死?这是正常现象还是有问题的迹象?

最佳答案

这听起来像是Hadoop中的推测执行。它在多个节点上运行相同的任务,并在至少一个节点完成时将其杀死。请参阅这本书的说明:https://www.inkling.com/read/hadoop-definitive-guide-tom-white-3rd/chapter-6/task-execution

关于hadoop - 为什么没有明显原因杀死 map task ?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20589199/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com