gpt4 book ai didi

hadoop fs -ls 内存不足错误

转载 作者:可可西里 更新时间:2023-11-01 15:02:33 57 4
gpt4 key购买 nike

我在 HDFS 数据目录中有 300000 多个文件。

当我执行 hadoop fs -ls 时,出现内存不足错误,提示已超出 GC 限制。每个集群节点都有 256 GB 的 RAM。我该如何解决?

最佳答案

您可以通过指定“HADOOP_CLIENT_OPTS”为 hdfs 命令提供更多内存

HADOOP_CLIENT_OPTS="-Xmx4g" hdfs dfs -ls /

在这里找到:http://lecluster.delaurent.com/hdfs-ls-and-out-of-memory-gc-overhead-limit/

这解决了我的问题,我在一个目录中有超过 40 万个文件,需要删除大部分但不是全部。

关于hadoop fs -ls 内存不足错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24768019/

57 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com