gpt4 book ai didi

hadoop - HDFS:群集上所有磁盘的实际空间与可用的HDFS大小

转载 作者:行者123 更新时间:2023-12-02 21:28:39 24 4
gpt4 key购买 nike

如何根据群集中磁盘的总大小来计算HDFS群集的可用大小?

例如。如果我的集群是10台计算机,每台计算机具有1TB的存储空间,那么hadoop fs -df将报告什么?

更具体地说,我需要在HDFS群集中存储5 TB的数据。群集需要多少磁盘空间?

最佳答案

这一切都取决于您如何设置HDFS复制因子。
默认值(推荐)为3。

您还可以设置hdfs来保留一些非dfs的空间,因此,如果需要的话,减去它。

粗略的计算几乎总是file size * 3 = total storage needed

关于hadoop - HDFS:群集上所有磁盘的实际空间与可用的HDFS大小,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35061941/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com