gpt4 book ai didi

hadoop - 使用 Hadoop 的多卷和限制磁盘使用

转载 作者:可可西里 更新时间:2023-11-01 14:59:52 25 4
gpt4 key购买 nike

我正在使用 Hadoop 处理大量数据。我设置了一个 hadoop 节点来使用多个卷:这些卷中的一个是具有 10To 磁盘的 NAS,另一个是来自服务器的本地磁盘,存储容量为 400 GB。
问题是,如果我理解的话,数据节点将尝试在每个卷中放置等量的数据。因此,当我在大量数据上运行作业时,400 GB 的磁盘很快就满了,而 10 To 磁盘有足够的剩余空间。然后我的 map-reduce 程序由 Hive 卡住,因为我的集群打开了安全模式......
我试图设置属性以限制数据节点的磁盘使用,但它什么也没做:我仍然有同样的问题。希望有人能帮助我。

看来我的 mapreduce 程序打开了安全模式,因为:

The ratio of reported blocks 0.0000 has not reached the threshold 0.9990.

我在 namenode 网络界面上看到了那个错误。我想使用属性 dfs.safemode.threshold.pct 禁用此选项,但我不知道这是否是解决问题的好方法?

最佳答案

我认为您可以求助于dfs.datanode.fsdataset.volume.choosing.policy

<property><name>dfs.datanode.fsdataset.volume.choosing.policy</name><value>org.apache.hadoop.hdfs.server.datanode.fsdataset.AvailableSpaceVolumeChoosingPolicy</value>

关于hadoop - 使用 Hadoop 的多卷和限制磁盘使用,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/7158207/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com