gpt4 book ai didi

hadoop - 如何配置 Hadoop 以便每个数据节点使用不同的目录?

转载 作者:可可西里 更新时间:2023-11-01 15:18:22 25 4
gpt4 key购买 nike

如何配置 Hadoop,使每个数据节点使用不同的目录进行存储?

每个数据节点共享一个存储空间。我希望datanode1 使用dir1,datanode2 使用dir2。起初,我将所有数据节点配置为使用共享存储中的同一目录,结果发现只有一个数据节点在运行。

最佳答案

您需要为集群中的每个节点创建一个自定义 hdfs-site.xml 文件,并适当配置数据目录属性 (dfs.data.dir)。如果您当前也在为 hadoop 配置使用共享目录,那么您还需要修改执行此操作的方式。

有点痛苦,我想您可以尝试使用一些 shell 脚本或 Puppet 或 Chef 等工具来生成文件。

再问你一个问题——你为什么要使用 NFS,你在某种程度上破坏了数据局部性——Hadoop 旨在将你的代码移动到数据所在的位置,而不是(如你的情况)代码和数据。

如果您正在使用 NFS,因为它由一些具有数据冗余的 SAN 阵列支持,那么您又一次让事情变得困难,HDFS 将(如果配置)为您管理数据复制,假设您有足够大的集群并且它配置正确。从理论上讲,使用商品硬件的成本也应该低于使用昂贵的 SAN 的支持(我猜取决于您的设置/情况)

关于hadoop - 如何配置 Hadoop 以便每个数据节点使用不同的目录?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/12676758/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com