gpt4 book ai didi

Cassandra - 避免 nodetool 清理

转载 作者:行者123 更新时间:2023-12-01 00:59:39 25 4
gpt4 key购买 nike

如果我们在 C* 环中添加了新节点,我们是否需要运行“nodetool cleanup”摆脱现在已分配到其他地方的数据?或者在正常压缩期间无论如何都会发生这种情况?
在正常压缩期间,C* 是否会删除不再属于该节点的数据,或者我们是否需要为此运行“nodetoool cleanup”?询问是因为“清理”需要永远并且在完成之前使节点崩溃。

如果我们需要运行“nodetool cleanup”,有没有办法找出哪些节点现在拥有不应再拥有的数据? (即现在属于新节点的数据,但仍然存在于旧节点上,因为没有人删除它。这是“nodetool cleanup”将删除的数据。)我们有 RF=3 和两个数据中心,每个数据中心它具有数据的完整副本。我假设我们需要在我们添加节点的数据中心的所有节点上运行清理,因为新节点上的每一行过去都在另一个节点(主)上,加上两个其他节点上的两个副本(副本)。

最佳答案

如果您使用的是 Apache Cassandra 1.2 或更新版本,cleanup 会检查文件的元数据,以便仅在需要时执行某些操作。所以你可以安全地在每个节点上运行它,只有那些有额外数据的节点才会做一些事情。在正常的压缩过程中数据不会被删除,你必须调用 cleanup 来删除它。

关于Cassandra - 避免 nodetool 清理,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24559907/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com