gpt4 book ai didi

hadoop命令一次获取多个文件夹的大小

转载 作者:行者123 更新时间:2023-12-02 20:16:13 24 4
gpt4 key购买 nike

我正在尝试找出 hadoop 命令以一次性获取多个文件夹/目录的大小。
我可以通过以下命令获取单个文件夹的大小:hadoop fs -du -s -h <directory>在这种情况下,存在更多子目录。

最佳答案

我认为没有 Hadoop 命令可以做到这一点。但是您可以将它与其他 shell 程序结合使用。例如:

hadoop fs -ls -R <directory> | grep "^d" | awk '{print $NF}' | xargs hadoop fs -du
这将执行 hadoop fs -du <directory> 中的每个目录.
上述命令的分解:
  • hadoop fs -ls -R <directory> | grep "^d"为您获取 <directory> 中的所有目录.
  • awk '{print $NF}'获取目录名称。
  • xargs hadoop fs -du执行 hadoop fs -du对于每个目录名称。

  • 此外,使用 hadoop fs -du -s 可能很有用。而不是 hadoop fs -du如果您只对目录的大小感兴趣。

    关于hadoop命令一次获取多个文件夹的大小,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63405002/

    24 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com