gpt4 book ai didi

hadoop - 单节点群集上的HDFS复制因子

转载 作者:行者123 更新时间:2023-12-02 22:02:44 26 4
gpt4 key购买 nike

单节点群集可以有多个副本吗?我已在hdfs-site.xml中将复制因子更新为2,并重新启动了所有节点,但仍然仅为新文件创建了一个块,请帮助我弄清这一点。

最佳答案

不能。单个节点群集的复制因子不能超过一个。是什么让您认为这甚至有可能?

复制是保存数据的过程,这样您就不会在任何最坏的情况下丢失数据。如果将其设置为2,则意味着您希望将数据复制到2个节点(计算机)上,这样,如果一个节点出现故障,您仍然可以将数据安全地保存在另一个节点上。

现在,Hadoop提供的默认复制为3。这意味着将在不同机架上的3个不同节点上进行3次数据复制(复制)(这是另一个概念,称为Hadoop的机架感知)。

因此,您将无法在单节点群集上获得多个数据副本。希望它能清除您的查询!

关于hadoop - 单节点群集上的HDFS复制因子,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50842935/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com