gpt4 book ai didi

shell - 通过使用 shell 脚本过滤修改日期,将文件从 hdfs 文件夹复制到另一个 hdfs 位置

转载 作者:可可西里 更新时间:2023-11-01 15:19:37 32 4
gpt4 key购买 nike

我的 hdfs 位置有 1 年的数据,我想将过去 6 个月的数据复制到另一个 hdfs 位置。是否可以直接从 hdfs 命令复制 6 个月的数据,或者我们是否需要编写 shell 脚本来复制最近 6 个月的数据?

我已尝试使用 hdfs 命令来执行此操作,但没有成功。

我尝试使用下面的 shell 脚本,它在创建 TempFile 但抛出错误之前工作正常

$ sh scriptnew.sh
scriptnew.sh: line 8: syntax error: unexpected end of file

并且脚本不会进一步执行。

下面是我使用的 shell 脚本。

#!/bin/bash
hdfs dfs -ls /hive/warehouse/data.db/all_history/ |awk 'BEGIN{ SIXMON=60*60*24*180; "date +%s" | getline NOW } { cmd="date -d'\''"$6" "$7"'\'' +%s"; cmd | getline WHEN; DIFF=NOW-SIXMON; if(WHEN > DIFF){print $8}}' >> TempFile.txt
cat TempFile.txt |while read line
do
echo $i
hdfs dfs -cp -p $line /user/can_anns/all_history_copy/;
done

可能是什么错误以及如何解决?

最佳答案

要将 6 个月的文件从 hdfs 位置复制到另一个位置,我们可以使用以下脚本。

脚本应从您的本地 Linux 位置运行。

#!/bin/bash
hdfs dfs -ls /hive/warehouse/data.db/all_history/ |awk 'BEGIN{ SIXMON=60*60*24*180; "date +%s" | getline NOW } { cmd="date -d'\''"$6" "$7"'\'' +%s"; cmd | getline WHEN; DIFF=NOW-SIXMON; if(WHEN > DIFF){print $8}}' >> TempFile.txt
cat TempFile.txt |while read line
do
echo $i
hdfs dfs -cp -p $line /user/can_anns/all_history_copy/;
done

Line 2 : We are copying list of files which are of max 180 days to a TempFile. Then we iterate through this Temp file and if match is found then copy the file.

如果您是从 windows 编写脚本并复制到 linux 机器,有时它可能无法显示语法错误。为避免回车错误,将脚本复制到 linux 机器本地路径后运行以下命令。 sed -i 's/\r//'然后运行脚本 >>> sh FileName.sh

关于shell - 通过使用 shell 脚本过滤修改日期,将文件从 hdfs 文件夹复制到另一个 hdfs 位置,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57054087/

32 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com