gpt4 book ai didi

hadoop - 将新数据节点添加到现有 Hadoop 集群

转载 作者:可可西里 更新时间:2023-11-01 16:24:27 26 4
gpt4 key购买 nike

我应该如何向现有的 hadoop 集群添加新的数据节点?

我是否只是停止所有,设置一个新的数据节点服务器作为现有的数据节点,并将新的服务器 IP 添加到名称节点并将从站的数量更改为正确的数量?

另一个问题是:在我向集群添加一个新的数据节点后,我是否需要做任何事情来平衡所有数据节点或将现有文件和目录“重新分配”到不同的数据节点?

最佳答案

对于 Apache Hadoop,您可以选择以下两个选项之一:

1.- 准备数据节点配置(JDK、二进制文件、HADOOP_HOME env var、指向主服务器的 xml 配置文件、在主服务器的从文件中添加 IP 等)并在这个新从服务器中执行以下命令:

hadoop-daemon.sh start datanode

2.- 像步骤 1 一样准备数据节点并重新启动整个集群。

3.- 要重新分发现有数据,您需要在 hdfs-site.xml 中启用 dfs.disk.balancer.enabled。这启用了 HDFS Disk Balancer并且您需要配置一个计划。

关于hadoop - 将新数据节点添加到现有 Hadoop 集群,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51845430/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com