gpt4 book ai didi

linux - 需要在大量文件上运行 srm 的想法

转载 作者:太空宇宙 更新时间:2023-11-04 11:21:30 25 4
gpt4 key购买 nike

为了安全,我需要使用 srm(安全删除)而不是 rm 来删除一些文件:http://en.wikipedia.org/wiki/Srm_%28Unix%29

我目前将 srm 设置为对我需要删除的任何数据运行 3 遍。我遇到的问题是 srm 在处理大量文件时运行极其缓慢。例如,我试图删除一个 150 目录,但我发现它在 1 周内只删除了 10GB。

我知道 srm 在处理多个小文件时会运行缓慢,但目录深度是否也很重要?对于我需要每周删除的大部分数据,实际文件本身嵌套在各种深层子目录中。如果我在运行 srm 之前展平目录结构会有帮助吗?

这是我正在寻找的两种解决方法(可能是两者的结合),但我不知道它们能提供多少帮助:

  1. 在运行 srm 之前展平所有的目录结构。这样,所有需要清除的文件都在同一个目标目录中。
  2. 在运行 srm 之前归档整个目录。这样,目标文件将是一个大的 tar.gz 文件。压缩数据可能需要一段时间,但不会像 srm 那样长。

有人对我可以做什么有任何其他建议吗?其他一些人也使用了 shred,但结果相似,我们最终切换到 srm。

最佳答案

对 srm 了解不多,但可能值得一试:

find $mydir -type f -exec srm {} \;
find $mydir -type d -exec srm {} \;

关于linux - 需要在大量文件上运行 srm 的想法,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/17959695/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com