gpt4 book ai didi

hadoop - 为什么hadoop不将文件分发到所有节点?

转载 作者:可可西里 更新时间:2023-11-01 15:01:31 24 4
gpt4 key购买 nike

我根据 http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-multi-node-cluster/ 中的演练设置了一个 4 节点 hadoop 集群.我使用了 1 的复制(集群只是为了测试)

我从本地复制了一个 2GB 的文件。在 http 界面浏览文件时,我看到它被分成 31 个 block ,但它们都在一个节点(主节点)上

这是正确的吗?如何排查原因?

最佳答案

它们都在一个节点上,因为默认情况下Hadoop会默认先写入本地节点。我猜你是从那个节点使用 Hadoop 客户端。由于您有一个副本,它只会在那个节点上。

由于您只是在玩耍,您可能想要强制分散数据。为此,您可以运行 rebalancer使用 hadoop 再平衡器。几分钟后只需控制-C。

关于hadoop - 为什么hadoop不将文件分发到所有节点?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20474297/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com