- Java 双重比较
- java - 比较器与 Apache BeanComparator
- Objective-C 完成 block 导致额外的方法调用?
- database - RESTful URI 是否应该公开数据库主键?
我在使用公共(public)压缩库创建目录的 tar.gz 时遇到问题。我有一个目录结构如下。
parent/
child/
file1.raw
fileN.raw
我正在使用以下代码进行压缩。它运行良好,无一异常(exception)。但是,当我尝试解压缩那个 tar.gz 时,我得到一个名为“childDirToCompress”的文件。它的大小正确,因此文件在压缩过程中显然已相互附加。所需的输出将是一个目录。我不知道我做错了什么。任何明智的公共(public)压缩器都能让我走上正确的道路吗?
CreateTarGZ() throws CompressorException, FileNotFoundException, ArchiveException, IOException {
File f = new File("parent");
File f2 = new File("parent/childDirToCompress");
File outFile = new File(f2.getAbsolutePath() + ".tar.gz");
if(!outFile.exists()){
outFile.createNewFile();
}
FileOutputStream fos = new FileOutputStream(outFile);
TarArchiveOutputStream taos = new TarArchiveOutputStream(new GZIPOutputStream(new BufferedOutputStream(fos)));
taos.setBigNumberMode(TarArchiveOutputStream.BIGNUMBER_STAR);
taos.setLongFileMode(TarArchiveOutputStream.LONGFILE_GNU);
addFilesToCompression(taos, f2, ".");
taos.close();
}
private static void addFilesToCompression(TarArchiveOutputStream taos, File file, String dir) throws IOException{
taos.putArchiveEntry(new TarArchiveEntry(file, dir));
if (file.isFile()) {
BufferedInputStream bis = new BufferedInputStream(new FileInputStream(file));
IOUtils.copy(bis, taos);
taos.closeArchiveEntry();
bis.close();
}
else if(file.isDirectory()) {
taos.closeArchiveEntry();
for (File childFile : file.listFiles()) {
addFilesToCompression(taos, childFile, file.getName());
}
}
}
最佳答案
我遵循了这个解决方案,它一直有效,直到我处理了一个更大的文件集,它在处理 15000 - 16000 个文件后随机崩溃。以下行是泄漏文件处理程序:
IOUtils.copy(new FileInputStream(f), tOut);
并且代码因操作系统级别的“打开的文件过多”错误而崩溃以下小改动解决了这个问题:
FileInputStream in = new FileInputStream(f);
IOUtils.copy(in, tOut);
in.close();
关于java - 使用 Commons Compress 将目录压缩为 tar.gz,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/13461393/
zlib中的deflate()和compress()函数之间有什么区别? 我浏览了在线示例,其中一些使用deflate,而另一些使用compress。 我应该如何决定在哪种情况下使用另一种情况? 最佳
这是我的config.rb preferred_syntax = :sass http_path = '/' css_dir = 'css' sass_dir = 'sass' images_dir
我正在查看 Oracle 的 OLTP 表压缩(11g 及以上)文档以及在线资源以查找语法并遇到两个不同的版本: COMPRESS FOR ALL OPERATIONS 和 COMPRESS FOR
我目前在 .NET 2.0 下使用 SharpZipLib,通过它我需要将单个文件压缩为单个压缩存档。为此,我目前正在使用以下内容: string tempFilePath = @"C:\Users\
本文整理了Java中org.apache.hadoop.io.compress.zlib.ZlibCompressor.compress()方法的一些代码示例,展示了ZlibCompressor.co
我从 Azure Synapse 收到此建议。 推荐详情我们检测到您可以通过拆分存储帐户中暂存的压缩文件来提高负载吞吐量。一个好的经验法则是将压缩文件拆分为 60 个或更多,以最大限度地提高负载的并行
这个问题继续讨论开始 here 。我发现 HTTP 响应正文无法被解码为 JSON 对象,因为后者的 deflate 压缩。现在我想知道如何用Golang进行解压。我将不胜感激任何能够显示我的代码中的
我刚开始为新雇主工作。对于我的上一个雇主,我们使用 LESS 并将其编译为 .css 文件,然后将其压缩为 .min.css 文件。对于我的新雇主,我们也使用 LESS。但是这里我们不仅编译了LESS
我在终端中使用 compress file.txt 压缩了一个文件并得到了(如预期的那样)file.txt.Z 当我将该文件传递给 Go 中的 ioutil.ReadFile 时, buf0, err
当我打开Android Studio时,Android Studio将从commons-compress-1.12.jar下载https://jcenter.bintray.com/org/apach
我收到此错误,但我不知道为什么突然遇到 django-pipeline 问题。 我正在 virtualenv 下运行该项目,我尝试使用所需的基本应用程序创建一个新项目,看看它是否可以修复它,但我总是收
已关闭。此问题需要 debugging details 。目前不接受答案。 编辑问题以包含 desired behavior, a specific problem or error, and the
对于压缩由 fasta 核苷酸序列组成的数据集,推荐的压缩算法是什么(.xz、tar.gz、tar.bz2 等)? 此类数据的推荐压缩机制是什么? 基于字典的压缩 基于自适应字典的压缩 基于LZW算法
我正在寻找一个支持解压期间随机访问的通用压缩库。我想将维基百科压缩成单一的压缩格式,同时我想从中解压/提取个别文章。 当然,我可以单独压缩每篇文章,但这不会给出太大的压缩率。我听说 LZO 压缩文件由
我想压缩一串位,然后我想解压缩它。任何机构都可以通过提及快速无损压缩和解压缩技术来帮助我,如果可能的话,它的编程实现可以帮助我。 最佳答案 如果您正在寻找速度,那么考虑像 LZ4 这样的快速压缩算法是
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 想改进这个问题?将问题更新为 on-topic对于堆栈溢出。 4年前关闭。 Improve this qu
当我们压缩一个文件夹时,我们输入命令tar -cjf folder.tar.bz2 folder,它会将整个文件夹压缩到其中。 无论如何要压缩文件夹中的所有内容,但该文件夹不应出现在存档中? 示例 -
来自 Shannon's Source Coding Theorem我们知道压缩字符串的熵受原始字符串熵的限制,如下所示: H(X) <= L < H(X) + 1/N 其中 H(X) 是源字符串的熵
假设您有一个四字节整数,并且您想将其压缩为更少的字节。您可以压缩它,因为较小的值比较大的值更有可能(即,值的概率随其大小而降低)。您应用以下方案来生成 1、2、3 或 4 字节的结果: 请注意,在下面
是否有可能使用某种简单算法打包大文件,使我读取数据的速度比未压缩文件快(由于硬盘驱动器比未压缩速度慢)? 我需要什么样的压缩率?任何快速压缩算法都能做到吗? 最佳答案 是。当从硬盘上读取压缩系数为4的
我是一名优秀的程序员,十分优秀!