gpt4 book ai didi

hadoop - hdfs 日志文件太大

转载 作者:可可西里 更新时间:2023-11-01 14:15:11 26 4
gpt4 key购买 nike

在对 hdfs 进行了大量的读写操作之后,(我不知道导致这个问题的确切操作)。这两个文件:dncp_block_verification.log.curr ,dncp_block_verification.log.prev每个都超过 200 000 000 000 字节。

对 hdfs 进行哪些操作可能会导致这些文件快速增长?

从互联网上我知道我可以关闭 hdfs 并删除日志,但这不是好的解决方案。如何避免这个问题?非常感谢你

最佳答案

block 扫描器是导致文件增长的原因。这是解释该行为的文章的链接:http://aosabook.org/en/hdfs.html (第 8.3.5 节)。

bug这导致这已在 HDFS 2.6.0 中修复

关于hadoop - hdfs 日志文件太大,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25259202/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com