gpt4 book ai didi

hadoop - 添加新数据节点 - 在新节点上格式化?

转载 作者:可可西里 更新时间:2023-11-01 15:25:24 25 4
gpt4 key购买 nike

我已经设置了一个非常简单的 Hadoop 集群,其中包含 3 个虚拟机 - 一个充当 NameNode,其他 2 个节点是数据节点。我使用 format 命令创建了 HDFS 文件系统,一切正常。我可以将文件保存到HDFS系统。

现在我想添加另一个数据节点。我的假设是,当我设置新节点,将其添加到 slaves 文件,并(大概)重启 HDFS 时,系统将意识到已添加一个新节点,并在新节点上分配和格式化磁盘空间以使其成为 HDFS 的一部分。这个假设是否正确?显然,重新格式化整个 HDFS 是不可取的,所以我假设可以“即时”添加数据节点。我是正确的还是需要执行其他操作才能使新节点为 HDFS 提供存储?谢谢!

最佳答案

I'm assuming datanodes can be added "on the fly".

你的假设是正确的。

HDFS 上的任何内容都不需要格式化。新数据节点的磁盘应该是,最好数据节点目录与其他节点相同,但不一定。

您不需要重新启动 HDFS。 Datanode在其服务运行时使用RPC请求向namenode注册

提示:与自己编辑和同步 XML 相比,使用 Apache Ambari 可以更轻松地安装、配置和管理服务

关于hadoop - 添加新数据节点 - 在新节点上格式化?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47906841/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com