gpt4 book ai didi

hadoop - 在Hadoop中,复制因子和集群中的节点数之间有什么关系?

转载 作者:可可西里 更新时间:2023-11-01 16:24:36 32 4
gpt4 key购买 nike

例如,如果复制因子为 3,并且集群中有 2 个节点。那么将创建多少个副本?它们将如何放置?

最佳答案

复制因子大于可用数据节点会破坏复制的目的。副本应该明确且唯一地放置在数据节点上。如果一个数据节点包含同一个 block 的多个副本(理论上),它不会提供额外的容错能力,因为如果该节点出现故障,两个副本都会丢失。因此每个节点只有一个副本就足够了。

并回答您的问题:

  1. What is the relationship between replication factor and number of datanodes in cluster? Ans. Maximum replication factor should be less than or equal to #datanodes

  2. If the replication factor is 3 and there are 2 nodes in cluster. Then how many replicas will be created?
    Ans. As far as I tried, only 2 replicas are created. (Try using hdfs dfs -setrep option)

  3. How will they be placed? Ans. They will be placed one per datanode.

因此,当您提供的复制因子多于 #datanodes 时,您尝试创建的额外副本将在 hdfs fsck 输出中作为 Missing replicas 提及。此外,相应的 block 将被视为复制不足的 block

关于hadoop - 在Hadoop中,复制因子和集群中的节点数之间有什么关系?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45730508/

32 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com