gpt4 book ai didi

python - 按文件数拆分 gzip 文件

转载 作者:太空宇宙 更新时间:2023-11-04 05:09:56 31 4
gpt4 key购买 nike

我有一个很大的 tar.gz 文件,其中包含数百万个 xml 文件。

Linux中的

split命令可以按字节数/行数拆分,但不能按文件数拆分。例如,我想将 gzip 文件分割为每个输出子 gzip 中的 300k 个文件。有没有实用程序可以实现此目的?

我的最终目标是在 Python 中处理 tar.gz,我需要将文件分割成更小的 block 来保留文件。拆分将允许并行处理它们。

最佳答案

因为 split 不支持按文件数量拆分,所以我实现了一个 Python 实用程序:

import tarfile
import glob
import os
import shutil

def make_a_split(input_dir, split_num):
print("split {}".format(split_num))
tar_output = tarfile.open("split_" + str(split_num) + ".tar.gz", "w:gz")
for file_name in glob.glob(os.path.join(input_dir, "*")):
#print(" Adding %s..." % file_name)
tar_output.add(file_name, os.path.basename(file_name))
tar_output.close()
shutil.rmtree(tmp_output_dir)
print("split {} done".format(split_num))

count_per_split = 300000
split = 1

tmp_output_dir = "tmp/"

tar = tarfile.open('your.tar.gz')

for idx, tarinfo in enumerate(tar):
tar.extract(tarinfo, tmp_output_dir)
if idx > 0 and idx % count_per_split == 0:
make_a_split(tmp_output_dir, split)
split += 1
tar.close()
# did we not remove the temp dir? It means we have seen less than count_per_split and need
# to make a split
if os.path.exists(tmp_output_dir):
make_a_split(tmp_output_dir, split)

关于python - 按文件数拆分 gzip 文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56677086/

31 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com