gpt4 book ai didi

hadoop - 服务器上的数据节点容量太低

转载 作者:行者123 更新时间:2023-12-02 21:22:26 24 4
gpt4 key购买 nike

我正在使用Hadoop的hortonworks发行版,并已使用ambari安装了它。

我已经将其安装在服务器上,因此没有任何空间限制。

但是我的数据节点只有991 MB的空间,这是令人惊讶的低。

可能是什么原因?如何解决?

最佳答案

您可以从Linux终端尝试df -g来确认您有足够的空间。

登录到Amabari UI-> HDFS选项卡->配置,搜索属性dfs.datanode.du.reserved
此属性定义保留的空间,该空间将不用于Hadoop。

关于hadoop - 服务器上的数据节点容量太低,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36932875/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com