gpt4 book ai didi

hadoop - 在作业和任务级别如何在Hadoop中处理输出文件?

转载 作者:行者123 更新时间:2023-12-02 21:51:32 24 4
gpt4 key购买 nike

按照权威指南的规定,OutPutCommitter的setUpJob()将创建mapreduce输出目录,并为任务设置临时工作区。 mapred.output.dir / _temporary

然后这本书说写任务输出时会在任务级别创建临时目录。

上面的两个陈述有点令人困惑。

最佳答案

因此,基本上, map 归约工作包含许多任务,即 map task 和归约任务。现在,mapreduce输出目录是写入map-reduce作业的最终输出的目录。现在,当map reduce作业运行时,每个map任务和reduce任务都会生成中间文件,该文件位于任务运行所在节点的本地。中间的每个任务的本地输出将写入临时工作区。最终,经过改组和其他阶段后,根据您申请map-reduce作业的逻辑,此中间输出最终将作为最终输出写入hdfs。我希望能回答您的问题

关于hadoop - 在作业和任务级别如何在Hadoop中处理输出文件?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20415915/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com