gpt4 book ai didi

hadoop - dfs.blocksize和BlockCapacity的值不同

转载 作者:行者123 更新时间:2023-12-02 19:54:12 25 4
gpt4 key购买 nike

NameNode的REST响应中提供的BlockCapacity与我们在HDFS dfs.blocksize下的Ambari中设置的不同。

使用以下REST请求获取块容量
https://<namenode-ip>:50470/jmx?qry=Hadoop:service=NameNode,name=FSNamesystem
我得到的BlockCapacity的值为2097152,相当于2MB。

REST Response of Namenode

默认情况下,Ambari中dfs.blocksize的值为128MB。

Configured Value on Ambari

来自NameNode REST API响应的BlockCapacity和来自Ambari的dfs.blocksize是相同还是不同?

最佳答案

BlockCapacity 是指HDFS可以容纳的总块数。该值基于分配的Namenode的堆大小进行计算。可以根据为dfs.replicationdfs.blocksize和总DFS容量配置的值来得出require堆大小。

here发现的示例描述了这些配置如何帮助确定名称节点的堆大小,从而确定块容量。

在这种情况下,文件系统可以容纳总共 2097152 块(不包括复制),每个块都具有配置的dfs.blocksize作为每个块的最大大小。

关于hadoop - dfs.blocksize和BlockCapacity的值不同,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60704563/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com