gpt4 book ai didi

linux - 如何从 Linux 服务器上的大型 (30Gb+) zip 文件中提取文件

转载 作者:IT王子 更新时间:2023-10-29 00:16:33 24 4
gpt4 key购买 nike

1) 从大型 zip 文件中提取

我想从 Linux 服务器上的大型 zip 文件 (30Gb+) 中提取文件。有足够的可用磁盘空间。

我试过 jar xf dataset.zip。但是,出现push button is full 错误,无法提取所有文件。

我试过unzip,但压缩文件损坏了。

Archive:  dataset.zip 
warning [dataset.zip]: 35141564204 extra bytes at beginning or within zipfile
(attempting to process anyway)
error [dataset.zip]: start of central directory not found;
zipfile corrupt.
(please check that you have transferred or created the zipfile in the
appropriate BINARY mode and that you have compiled UnZip properly)

我尝试了 zip -FF dataset.zip --out data.zip,但出现条目太大的错误:

zip 错误:条目太大,无法拆分、读取或写入(压缩不良导致条目意外地大 - try -fz)

无论如何,我可以从非常大的 zip 文件中高效地提取文件吗?

2) 从大型 zip 文件中提取某些文件

如果我只想从这个大 zip 文件中提取某些文件,是否可以只提取这些文件?例如,dataset.zip 中的 data1.txt?似乎我不能使用任何 zipunzip 命令(总是有 zipfile 损坏的问题)。

谢谢!

最佳答案

我已经解决了这个问题。结果证明是 zip 损坏问题。我首先修复了文件:

zip -FF filename1.zip --out filename2.zip -fz

然后解压固定的zip文件:

unzip filename2.zip

并成功解压所有文件!

非常感谢 Fattaneh Talebi 的帮助!

关于linux - 如何从 Linux 服务器上的大型 (30Gb+) zip 文件中提取文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31481701/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com