gpt4 book ai didi

hadoop - 如何正确设置hadoop block 大小?

转载 作者:行者123 更新时间:2023-12-02 22:04:46 27 4
gpt4 key购买 nike

我试图将我的文件组合成一个文件上传到HDFS中。因此,HDFS的文件数比以前小但大小相同。因此,在这种情况下,我获得了更快的mapreduce时间,因为我认为该过程使容器(map任务或reduce任务)的数量减少了。

因此,我想问一下,如何正确设置块大小,以获得更快的mapreduce?我应该设置为大于默认值(最小化容器号)吗?

非常感谢....

最佳答案

您知道吗,为什么hadoop具有强大而快速的计算能力?因为它将一个大工作分成许多小工作。这就是hadoop的精神。

协调工作流程的机制很多,也许调整块大小无法达到您的目标。

您可以设置参数“dfs.block.size”(以字节为单位)以调整块大小。

关于hadoop - 如何正确设置hadoop block 大小?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30405244/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com