gpt4 book ai didi

hadoop - Hadoop 集群中的数据存储

转载 作者:可可西里 更新时间:2023-11-01 16:55:48 27 4
gpt4 key购买 nike

这是一本 hadoop 书中的问题,我认为答案是 200,但这不正确。有人能解释一下吗?

假设您的 Hadoop 集群中有 50 个节点,总共有 200 TB(每个节点 4 TB)的原始磁盘空间分配给 HDFS 存储。假设 Hadoop 的默认配置,您能够存储多少数据?

最佳答案

HDFS 的默认复制级别设置为3,因此,您的每个数据在 HDFS 中将有 3 个副本除非创建时明确指定。

因此,在默认的 HDFS 配置下,您只能存储 200/3 TB 的实际数据。

关于hadoop - Hadoop 集群中的数据存储,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30089170/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com