gpt4 book ai didi

database - 当 Cassandra 集群中的节点达到极限时该怎么办?

转载 作者:搜寻专家 更新时间:2023-10-30 22:31:43 27 4
gpt4 key购买 nike

我正在研究 Cassandra,并且正在为我正在进行的项目设置集群。考虑这个例子:假设我设置了一个 5 节点集群,每个集群有 200 GB 空间。这相当于总共 1000 gb(大约 1 TB)的空间。假设我的分区在集群中平均分配,我可以轻松添加节点并实现线性可扩展性。但是,如果这 5 个节点开始接近 200 GB 的 SSD 限制怎么办?在这种情况下,我可以再添加 5 个节点,现在分区将拆分为 10 个节点。但较旧的节点仍会写入数据,因为它们是集群的一部分。有没有办法让这 5 个旧节点“只读”?我想在整个集群中发起随机读取查询,但不想再写入旧节点(因为它们有 200 GB 的上限)。

帮助将不胜感激。谢谢。

注意:我可以说 99% 的查询都是写查询,只有 1% 或更少的查询是读查询。该应用程序必须在 Cassandra 中保留点击事件。

最佳答案

通常当集群达到其极限时,我们向集群添加新节点。添加新节点后,旧的 cassandra 集群节点会将它们的数据分发到新节点。然后我们在每个节点中使用 nodetool cleanup 来清理分发到新节点的数据。整个场景发生在单个 DC 中。

For example:

Suppose, you have 3 node (A,B,C) in DC1 and 1 node (D) in DC2. Your nodes are reaching their limit. So, decided to add a new node (E) to DC1. Node A, B, C will distribute their data to node E and we'll use nodetool cleanup in A,B,C to cleanup the space.

关于database - 当 Cassandra 集群中的节点达到极限时该怎么办?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42506560/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com