gpt4 book ai didi

hadoop - DSE 4 分析节点 ~ 它是否并且应该有数据?

转载 作者:可可西里 更新时间:2023-11-01 14:50:00 27 4
gpt4 key购买 nike

我们一直想知道为什么我们的一个集群显示分析节点拥有数据。为了便于阅读,我编辑了 ips、 token 和主机 ID

% nodetool status

Datacenter: Cassandra
=====================
Status=Up/Down|/ State=Normal/Leaving/Joining/Moving
-- Address Load Owns Host ID Token Rack
UN 172.32.x.x 46.83 GB 18.5% someguid 0 rack1
UN 172.32.x.x 60.26 GB 33.3% anotherguid ranbignumber rack1
UN 172.32.x.x 63.51 GB 14.8% anothergui ranbignumber rack1
Datacenter: Analytics
=====================
Status=Up/Down|/ State=Normal/Leaving/Joining/Moving
-- Address Load Owns Host ID Token Rack
UN 172.32.x.x 28.91 GB 0.0% someguid 100 rack1
UN 172.32.x.a 30.41 GB 33.3% someguid ranbignumber rack1
UN 172.32.x.x 17.46 GB 0.0% someguid ranbignumber rack1

那么 ip 为 172.32.x.a 的 Analytics 节点是否真的拥有数据?如果是这样,我们需要备份吗?退役节点也会将数据移回适当的节点吗?

这是我从数据中心分析中的上述节点工具状态指的节点:

UN  172.32.x.a  30.41 GB   33.3%  someguid  ranbignumber   rack1

再次提出问题(更新了下面提供的答案)

  1. 我们需要备份这个节点吗? 回答:是
  2. 这个节点应该有数据吗?回答:是的,否则分析性能将受到影响。
  3. 如果它不应该有数据,nodetool 停用是否会将数据移回其他节点? 回答:没有复制策略驱动这个

这里是更新

% nodetool status our_important_keyspace

Datacenter: Cassandra
=====================
Status Address Load Owns (effective)
UN 2 63.16 GB 81.5%
UN 1 47.21 GB 33.3%
UN 3 59.87 GB 85.2%
Datacenter: Analytics
=====================
Status Address Load Owns (effective)
UN 3 17.74 GB 33.3%
UN 2 30.62 GB 33.3%
UN 1 29.21 GB 33.3%

今天备份 Analytics - 很棒的答案,可能为我们省去了很多痛苦。

最佳答案

您需要做的第一件事是使用存储数据的键空间运行 nodetool status 或 dsetool ring。这将根据该键空间的复制策略向您显示所有权。您现在看到的很可能是原始 token 值设置的所有权。如果您的 key 空间被命名为“important_data”,您将运行“nodetool status important_data”。

键空间上的这种复制策略是确定哪些节点负责集群中数据的关键。在任何情况下,多 DC 集群都应该使用 NetworkTopologyStrategy,它允许指定每个数据中心中应该存在多少数据副本。例如,如果您想确保数据在 Cassandra 集群中被复制两次,但在 Analytics 集群中只被复制一次,您可以使用网络拓扑策略,例如 {'Cassandra':2, 'Analytics':1 }。这意味着每条数据都在集群范围内复制了 3 倍。如果您确实不希望将数据复制到分析节点(这会损害分析性能),您可以设置“Analytics:0”或一起省略该短语。

您的备份策略应该始终至少备份数据的完整副本,但最简单的方法可能是仅备份每个节点或至少备份一个数据中心中的每个节点(因为您可以从中引导其他节点)

如果您希望通过复制策略,该节点将仅具有数据,在这种情况下,您将需要在删除节点时停用,就像您对集群中的任何节点所做的那样。大多数用户确实发现在他们的分析数据中心拥有副本很有用,因为这样可以在使用各种分析工具时加快访问速度。

关于hadoop - DSE 4 分析节点 ~ 它是否并且应该有数据?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23034707/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com