gpt4 book ai didi

hadoop - 如何在不重启Hadoop服务的情况下重置 “Reserved Space for Replicas”

转载 作者:行者123 更新时间:2023-12-02 20:18:07 27 4
gpt4 key购买 nike

如何找到为什么“副本保留空间”不断增加的原因,以及如何限制此类缓存的空间?

我们发现“副本的保留空间”与“非DFS”空间有关,并且在重新启动数据节点之前可以不断增加。我们没有找到如何限制为“副本保留空间”分配的空间:(

我们认为dfs.datanode.du.reserved可以控制“副本的保留空间”,但事实并非如此。

因此,我们的问题是。如何控制为Hadoop中的“副本保留空间”分配的空间大小?

最佳答案

对于那些面临此类问题的人。首先,您应该了解问题的性质。为此,请阅读以下问题的说明:

  • https://issues.apache.org/jira/browse/HDFS-8072
  • https://issues.apache.org/jira/browse/HDFS-9530
  • https://issues.apache.org/jira/browse/HDFS-6489

  • 以下链接对于了解什么是块副本非常有用:
  • https://blog.cloudera.com/understanding-hdfs-recovery-processes-part-1/
  • https://blog.cloudera.com/understanding-hdfs-recovery-processes-part-2/

  • 解决方案
  • 查找在写或追加过程中经常断开与Hadoop连接的错误软件
  • 尝试更改复制策略(风险)
  • 将Hadoop更新到最新版本

  • 如果不重新启动Hadoop服务,您将无法重置“副本的保留空间”!

    关于hadoop - 如何在不重启Hadoop服务的情况下重置 “Reserved Space for Replicas”,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62135426/

    27 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com