gpt4 book ai didi

hadoop - HDFS 磁盘已满

转载 作者:可可西里 更新时间:2023-11-01 15:57:24 26 4
gpt4 key购买 nike

在我们的 Ambari 集群中,HDFS 磁盘使用率变为 100%。我想删除 HBase 中的表以释放磁盘,但 hbase (master) 没有启动。

我尝试了 Hdfs 重新平衡,但失败了。还有一次我手动删除了 HDFS 文件,但之后 HDFS 就不再启动了。

是否有释放磁盘空间的正确方法?还是我应该重新安装 ambari 集群?

HDP版本为2.4.2,HDFS版本为2.7.1,Hbase为1.1.2

最佳答案

我找到了一个解决方案,它并不完美,但比重新安装所有东西要好!

貌似有从hdfs(hadoop fs)中删除文件的命令,所以我们应该用它来删除hbase数据。命令是:

hadoop fs -rm -r -skipTrash /apps/hbase/*

其中 /apps/hbase/ 是 hdfs 中 hbase 数据的路径。 此命令应以 hdfs 用户身份运行

关于hadoop - HDFS 磁盘已满,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42272152/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com