gpt4 book ai didi

hadoop - HDFS block 大小

转载 作者:行者123 更新时间:2023-12-02 19:42:49 30 4
gpt4 key购买 nike

hdfs的默认块大小为128MB或64MB是什么?在hadoop明确指南中,它也被称为“HDFS,也具有块的概念,但它是一个更大的单元-默认为128 MB”。任何人都可以分辨出默认大小?

最佳答案

引用hadoop配置默认值的最佳位置是apache hadoop website。默认配置和值存在于apache hadoop网站的默认xml文件中。

您的问题的答案位于hdfs-default.xml中。到目前为止,hadoop的最新稳定版本是2.9.0,块大小(dfs.blocksize)的值为128 MB(134217728 bytes)。

在hadoop 1.x中,块大小的默认值为64 MB。现在,在具有高速网络和低成本存储的世界中,它们的默认值为128 MB。

注意:可以将apache网站中存在的hdfs-default.xmlcore-default.xmlyarn-default.xml文件用作查找apache hadoop中属性默认值的引用。

关于hadoop - HDFS block 大小,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47711675/

30 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com