gpt4 book ai didi

logging - 如何清理/var/log/hadoop-hdfs 下的 hadoop-hdfs 日志

转载 作者:可可西里 更新时间:2023-11-01 14:19:22 25 4
gpt4 key购买 nike

我在 hadoop 集群中的名称节点运行状况不佳,因为“该角色的日志目录不是一个可用空间少于 4GB 的文件系统。/var/log/hadoop-hdfs(可用:2.4GB(11.12% ), 容量:21.7 GB"

我查看了该文件夹,发现其中有 5.5GB 的名为“hdfs-audit.log.0”-“hdfs-audit.log.20”的日志文件。我阅读了这些文件,我真的不需要保存这些日志。我想知道有没有办法永久删除它们并且不再生成它们? (我试图手动删除它们,但似乎几个小时后它们又回来了。)

我还尝试在我的 /etc/hadoop/中添加 "log4j.logger.org.apache.hadoop.hdfs.server.namenode.FSNamesystem.audit=WARN,NullAppender" conf/log4j.properties。但它并没有阻止那些文件“回来”。

提前感谢您的帮助!

最佳答案

首先,Hadoop 的设计容量比您提到的要大得多,这意味着 5.5GB 的日志通常不会那么多。这解释了为什么默认设置不适合您的情况。

您可以:

  • 减少使用变量 navigator.audit_log_max_backup_index 保留的日志文件的数量(通常为 10)
  • 或使用 navigator.audit_log_max_file_size 的最大日志文件大小

关于logging - 如何清理/var/log/hadoop-hdfs 下的 hadoop-hdfs 日志,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/18192443/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com