gpt4 book ai didi

hadoop - hdfs dfs -count 从哪里获取信息?

转载 作者:可可西里 更新时间:2023-11-01 16:28:47 24 4
gpt4 key购买 nike

我们需要计算 Multi-Tenancy 多节点集群中大量目录中的文件数量,该集群具有大量数据。所以,我想知道命令“hdfs dfs -count/path/to/directory”从哪里来得到它的信息?它像 hdfs dfs -ls 一样工作吗?或者它直接从 HDFS 中的 Namenode 获取它的信息?

非常感谢!

最佳答案

它从 FileSystem API 调用 getContentSummary 方法:

ContentSummary summary = src.fs.getContentSummary(src.path);
out.println(summary.toString(showQuotas) + src);

org.apache.hadoop.fs.FsShell.Count 的源代码

getContentSummary 的源代码

关于hadoop - hdfs dfs -count 从哪里获取信息?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46364782/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com