gpt4 book ai didi

hadoop - 是否可以在 2 个 Hdfs 目录(单独的集群)之间使用 distcp 来 distcp 文件(逗号分隔)?

转载 作者:可可西里 更新时间:2023-11-01 14:45:15 25 4
gpt4 key购买 nike

我只需要 distcp x 个文件。

找不到解决方法。

  1. 一个想法是将它复制到一个临时目录,然后distcp 该目录。完成后,我可以删除该临时目录。

  2. 单独的 distcp 命令(针对每个文件)。这可能会很痛苦。

不确定是否允许逗号分隔。

有什么想法吗?

提前致谢。

最佳答案

您可以将所有文件作为源传递给 DistCp 命令

hadoop distcp hdfs://src_nn/var/log/spark/appHistory/<appId_1>/ \
hdfs://src_nn/var/log/spark/appHistory/<appId_2>/ \
....
hdfs://src_nn/var/log/spark/appHistory/<appId_n>/ \
hdfs://dest_nn/target/

或者,创建一个包含源列表的文件,并使用 -f 选项将其作为源传递给命令

hadoop distcp -f hdfs://src_nn/list_of_files hdfs://dest_nn/target/

关于hadoop - 是否可以在 2 个 Hdfs 目录(单独的集群)之间使用 distcp 来 distcp 文件(逗号分隔)?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43749340/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com