gpt4 book ai didi

Hadoop fs -get 仅复制特定文件

转载 作者:可可西里 更新时间:2023-11-01 14:25:29 25 4
gpt4 key购买 nike

有没有办法只复制特定文件,比如使用 fs -get 或 fs -copyToLocal 根据文件类型?注意:我希望这是递归的并遍历整个集群。

想通了,但我无法回答我自己的问题。

这是我们的做法。刚刚写了一个快速的 shell 脚本。

mkdir /tmp/txt

for F in `hadoop fs -fs hdfs://namenode.mycluster -lsr / | grep '/*.txt$' | awk '{print $NF}';
do
hadoop fs -fs hdfs://namenode.mycluster -copyToLocal $F /tmp/las/
done

最佳答案

这是我们的做法。刚刚写了一个快速的 shell 脚本。

LOCAL_DIR=/tmp/txt
mkdir $LOCAL_DIR

for F in `hadoop fs -fs hdfs://namenode.mycluster -lsr / | grep '/*.txt$' | awk '{print $NF}';
do
hadoop fs -fs hdfs://namenode.mycluster -copyToLocal $F $LOCAL_DIR
done`

关于Hadoop fs -get 仅复制特定文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/10686625/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com