gpt4 book ai didi

bash - 从 Cloudera Hadoop 中删除指定天数内的目录

转载 作者:可可西里 更新时间:2023-11-01 15:27:10 26 4
gpt4 key购买 nike

我正在尝试编写一个 bash 脚本,它允许我在 Cloudera Hadoop 中清理指定天数的目录。我考虑过将文件移动到临时目录,然后执行 hdfs dfs -rm,但我无法将 -mtimehdfs 结合使用Hadoop 命令语法中的 dfs -ls-mv-rm。我还考虑过 -moveToLocal,但这不是一个选项。仅 -copyToLocal-get。任何建议将不胜感激。

最佳答案

试试这个(未测试)

hadoop jar /opt/....../jars/search-mr-*-job.jarorg.apache.solr.hadoop.HdfsFindTool -find /hdfs/ -mtime +365 -rm rvf {} \;
  1. ...... 将是 jar 可用的目录(你可以使用 locate cmd 搜索确切的目录。

  2. +365 表示超过 365 天的文件。

  3. /hdfs/ 是我们需要从中删除文件的目录。

有关更多详细信息,请查看以下链接 -

https://www.cloudera.com/documentation/enterprise/latest/topics/search_hdfsfindtool.html

关于bash - 从 Cloudera Hadoop 中删除指定天数内的目录,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42959388/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com