gpt4 book ai didi

hadoop - HDFS dfs.name.dir的可用空间不足

转载 作者:行者123 更新时间:2023-12-02 20:28:09 31 4
gpt4 key购买 nike

Spark应用程序引发此错误:

> Cannot create directory
> /home/user/hdp/.sparkStaging/application_00000000_000. Name node is in
> safe mode. Resources are low on NN. Please add or free up more
> resources then turn off safe mode manually. NOTE: If you turn off
> safe mode before adding resources, the NN will immediately return to
> safe mode. Use "hdfs dfsadmin -safemode leave" to turn safe mode off.

所以我尝试了这个: hdfs dfs -df -h
Filesystem                                                          Size   Used  Available  Use%
hdfs://ip-xx-xx-xxx-xxx.xxxxxxxx.xx-xxxx-x.compute.internal:xxxx 58.5 G 5.0 G 46.5 G 9%

由于它具有足够的可用空间,因此我尝试执行 df -h ,发现
$ {dfs.name.dir} = / xx2 / namenode 消耗了/ xxx / xxxx3中的所有可用空间(27G)
Filesystem      Size  Used Avail Use% Mounted on
xxxxxxxx 3.9G 72K 3.9G 1% /xxx
xxxxx 3.9G 0 3.9G 0% /xxx/shm
/xxx/xxxx1 9.8G 3.8G 5.9G 40% /
/xxx/xxxx2 5.0G 65M 5.0G 2% /xx1
/xxx/xxxx3 27G 27G 94M 100% /xx2

我不知道如何为该目录正确释放一些空间。

最佳答案

您可以检查safemode中的hdfs-default.xml阈值吗

dfs.safemode.threshold.pct
dfs.namenode.safemode.threshold-pct

尝试提高阈值,然后在下面使用该按钮退出安全模式。之后,一旦发现导致问题的黑羊文件,您就可以还原所做的更改
hdfs dfsadmin -safemode leave

您可以检查本地文件( /var/log/..),因为hadoop在系统磁盘空间上工作,还可以检查 hadoop.tmp.dir中提到的目录。在所有数据节点和名称节点上使用 hadoop fs -rmr进行刷新

关于hadoop - HDFS dfs.name.dir的可用空间不足,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54801232/

31 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com