- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。
想改进这个问题?将问题更新为 on-topic对于堆栈溢出。
2年前关闭。
Improve this question
我有一个相当大的文件夹(〜10GB),其中包含整个目录树中的许多重复文件。其中许多文件重复了 10 次。重复的文件不会并排放置,而是位于不同的子目录中。
如何压缩文件夹以使其足够小?
我尝试在“最佳”模式下使用 Winrar,但它根本没有压缩它。 (很奇怪)
zip\tar\cab\7z\任何其他压缩工具会做得更好吗?
我不介意让该工具工作几个小时 - 但不会更多。
我宁愿自己不以编程方式进行
最佳答案
在您的情况下,最佳选择是 7-zip。
以下是选项:
7za a -r -t7z -m0=lzma2 -mx=9 -mfb=273 -md=29 -ms=8g -mmt=off -mmtf=off -mqs=on -bt -bb3 archife_file_name.7z /path/to/files
a
- 将文件添加到存档
-r
- 递归子目录
-t7z
- 设置存档类型(在您的情况下为 7z)
-m0=lzma2
- 将压缩方法设置为
LZMA2 . LZMA 是 7z 格式的默认和通用压缩方法。 LZMA方法的主要特点:
-mx=9
- 设置压缩级别。 x=0 表示复制模式(无压缩)。 x=9 - 超
-mfb=273
- 设置 LZMA 的快速字节数。它可以在 5 到 273 的范围内。正常模式的默认值为 32,最大和超模式的默认值为 64。通常,较大的数字会提供更好的压缩比和较慢的压缩过程。
-md=29
- 为 LZMA 设置字典大小。您必须以字节、千字节或兆字节为单位指定大小。字典大小的最大值为 1536 MB,但 7-Zip 的 32 位版本允许指定最多 128 MB 的字典。 LZMA 的默认值在正常模式下为 24 (16 MB),在最大模式下 (-mx=7) 下为 25 (32 MB),在 super 模式下 (-mx=9) 下为 26 (64 MB)。如果您没有从集合 [b|k|m|g] 中指定任何符号,则字典大小将计算为 DictionarySize = 2^Size 字节。解压缩字典大小为 N 的 LZMA 方法压缩的文件,需要大约 N 字节的可用内存 (RAM)。
md=29
因为在我的服务器上只有 16Gb 的 RAM 可用。使用此设置 7-zip 在任何目录大小的归档中仅占用 5Gb。如果我使用更大的字典大小 - 系统将进行交换。
-ms=8g
- 启用或禁用
固体模式 .默认模式为
s=on
.在实体模式下,文件被组合在一起。通常,以固态模式压缩会提高压缩比。在您的情况下,这对于使实体 block 尽可能大非常重要。
-mmt=off
- 套装
多线程模式关闭 .您需要将其关闭,因为我们需要在一个单独的 block 中由相同的 7-zip 线程处理相似或相同的文件。缺点是存档速度慢。无论您的系统有多少 CPU 或内核。
-mmtf=off
- 设置
过滤器的多线程模式关闭 .
-myx=9
- 将文件分析级别设置为最大,分析所有文件(增量和可执行过滤器)。
-mqs=on
- 在实体文件中按类型对文件进行排序。将相同的文件存储在一起。
-bt
- 显示执行时间统计
-bb3
- 设置输出日志级别
关于compression - 压缩包含许多重复文件的文件夹,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27457326/
zlib中的deflate()和compress()函数之间有什么区别? 我浏览了在线示例,其中一些使用deflate,而另一些使用compress。 我应该如何决定在哪种情况下使用另一种情况? 最佳
这是我的config.rb preferred_syntax = :sass http_path = '/' css_dir = 'css' sass_dir = 'sass' images_dir
我正在查看 Oracle 的 OLTP 表压缩(11g 及以上)文档以及在线资源以查找语法并遇到两个不同的版本: COMPRESS FOR ALL OPERATIONS 和 COMPRESS FOR
我目前在 .NET 2.0 下使用 SharpZipLib,通过它我需要将单个文件压缩为单个压缩存档。为此,我目前正在使用以下内容: string tempFilePath = @"C:\Users\
本文整理了Java中org.apache.hadoop.io.compress.zlib.ZlibCompressor.compress()方法的一些代码示例,展示了ZlibCompressor.co
我从 Azure Synapse 收到此建议。 推荐详情我们检测到您可以通过拆分存储帐户中暂存的压缩文件来提高负载吞吐量。一个好的经验法则是将压缩文件拆分为 60 个或更多,以最大限度地提高负载的并行
这个问题继续讨论开始 here 。我发现 HTTP 响应正文无法被解码为 JSON 对象,因为后者的 deflate 压缩。现在我想知道如何用Golang进行解压。我将不胜感激任何能够显示我的代码中的
我刚开始为新雇主工作。对于我的上一个雇主,我们使用 LESS 并将其编译为 .css 文件,然后将其压缩为 .min.css 文件。对于我的新雇主,我们也使用 LESS。但是这里我们不仅编译了LESS
我在终端中使用 compress file.txt 压缩了一个文件并得到了(如预期的那样)file.txt.Z 当我将该文件传递给 Go 中的 ioutil.ReadFile 时, buf0, err
当我打开Android Studio时,Android Studio将从commons-compress-1.12.jar下载https://jcenter.bintray.com/org/apach
我收到此错误,但我不知道为什么突然遇到 django-pipeline 问题。 我正在 virtualenv 下运行该项目,我尝试使用所需的基本应用程序创建一个新项目,看看它是否可以修复它,但我总是收
已关闭。此问题需要 debugging details 。目前不接受答案。 编辑问题以包含 desired behavior, a specific problem or error, and the
对于压缩由 fasta 核苷酸序列组成的数据集,推荐的压缩算法是什么(.xz、tar.gz、tar.bz2 等)? 此类数据的推荐压缩机制是什么? 基于字典的压缩 基于自适应字典的压缩 基于LZW算法
我正在寻找一个支持解压期间随机访问的通用压缩库。我想将维基百科压缩成单一的压缩格式,同时我想从中解压/提取个别文章。 当然,我可以单独压缩每篇文章,但这不会给出太大的压缩率。我听说 LZO 压缩文件由
我想压缩一串位,然后我想解压缩它。任何机构都可以通过提及快速无损压缩和解压缩技术来帮助我,如果可能的话,它的编程实现可以帮助我。 最佳答案 如果您正在寻找速度,那么考虑像 LZ4 这样的快速压缩算法是
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 想改进这个问题?将问题更新为 on-topic对于堆栈溢出。 4年前关闭。 Improve this qu
当我们压缩一个文件夹时,我们输入命令tar -cjf folder.tar.bz2 folder,它会将整个文件夹压缩到其中。 无论如何要压缩文件夹中的所有内容,但该文件夹不应出现在存档中? 示例 -
来自 Shannon's Source Coding Theorem我们知道压缩字符串的熵受原始字符串熵的限制,如下所示: H(X) <= L < H(X) + 1/N 其中 H(X) 是源字符串的熵
假设您有一个四字节整数,并且您想将其压缩为更少的字节。您可以压缩它,因为较小的值比较大的值更有可能(即,值的概率随其大小而降低)。您应用以下方案来生成 1、2、3 或 4 字节的结果: 请注意,在下面
是否有可能使用某种简单算法打包大文件,使我读取数据的速度比未压缩文件快(由于硬盘驱动器比未压缩速度慢)? 我需要什么样的压缩率?任何快速压缩算法都能做到吗? 最佳答案 是。当从硬盘上读取压缩系数为4的
我是一名优秀的程序员,十分优秀!