gpt4 book ai didi

Cassandra 节点丢失

转载 作者:行者123 更新时间:2023-12-05 01:01:27 25 4
gpt4 key购买 nike

我试图弄清楚,如何参数化我的 2 个节点集群,以便拥有一个精确的副本,如果其中一个节点出现故障...
使用这个工具检查一下:http://www.ecyrd.com/cassandracalculator/

对于以下参数:

Cluster size: 2 / Replication Factor: 2 / Write Level: All / Read Level: One

它给了我结果:
  • 您的阅读是 一致
  • 您可以从 的损失中幸存下来没有节点 .
  • 你真的在阅读 每次1个节点 .
  • 你真的写信给 每次2个节点 .
  • 每个节点持有 100% 您的数据。

  • 我同意所有这些结果,除了一个“你可以在没有节点丢失的情况下幸存下来”。
    我不明白为什么集群不能从一个节点丢失中存活下来,如果一个节点死了,“Write: ALL”将写入剩下的唯一一个节点,不是吗?
    然后当我恢复第二个节点时,它应该与第一个节点同步,并再次接受写入,不是吗?

    如果我错了,有人可以向我解释为什么吗?

    编辑 :

    除了持有 % 之外,更多配置会给我相同的结果:
    Cluster size: 3 / Replication Factor: 2 / Write Level: All / Read Level: One
    Cluster size: 3 / Replication Factor: 2 / Write Level: Quorum / Read Level: One

    即使我尝试与 Reads 而不是 Writes 保持一致:
    Cluster size: 2 / Replication Factor: 2 / Write Level: One / Read Level: Quorum

    每次它告诉我我不能在任何节点上遭受损失。

    最佳答案

    那是因为复制因子

    When replication factor exceeds the number of nodes, writes are rejected, but reads are served as long as the desired consistency level can be met.



    来源: http://www.datastax.com/docs/1.0/cluster_architecture/replication

    关于Cassandra 节点丢失,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28192495/

    25 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com