gpt4 book ai didi

python - 如何使用 Boto3 Python 在 S3 中创建 zipfile?

转载 作者:行者123 更新时间:2023-12-05 01:12:19 26 4
gpt4 key购买 nike

我正在尝试从 S3 存储桶中子文件夹中的多个文件创建一个 zip 文件,然后将该 zip 文件保存在同一存储桶中的另一个子文件夹中。

在本地运行我的 Flask 应用程序时,我可以从我的 S3 子文件夹存储桶创建 zip 文件,但不能使用 Heroku,因为它不存储任何内容。

我正在查看这个示例,但它似乎过时了并且使用了本地文件。 https://www.botreetechnologies.com/blog/create-and-download-zip-file-in-django-via-amazon-s3

这是我正在使用的代码片段。

from flask import Response
import boto3, zipfile, os

AWS_ACCESS_KEY_ID = "some access key"
AWS_ACCESS_SECRET_ACCESS_KEY = "some secret key"
AWS_STORAGE_BUCKET_NAME = "some bucket"

aws_session = boto3.Session(aws_access_key_id = AWS_ACCESS_KEY_ID,
aws_secret_access_key = AWS_SECRET_ACCESS_KEY)

s3 = aws_session.resource("s3")

s3 = boto3.client("s3", region_name = "some region")
s3_resource = boto3.resource("s3")
blog_folder = "blog_1"

paginator = s3.get_paginator("list_objects")

file_list = [page for page in paginator.paginate(Bucket=AWS_STORAGE_BUCKET_NAME)\
.search("Contents[?Size >`0`][]")
if blog_folder in page["Key"]]



zf = zipfile.ZipFile(byte, "w")
zipped_files = []

zip_filename = "download_files.zip"

for key in file_list:

file_name = key["Key"].split("/")[-1]

my_bucket = s3_resource.Bucket(AWS_STORAGE_BUCKET_NAME)

file_obj = my_bucket.Object(key["Key"]).get()


zipped_files.append(file_obj["Body"].read())

知道如何解决这个问题吗?用户能够下载 zip 文件而不是单个文件要方便得多。非常感谢任何帮助。

最佳答案

python 的内存中 zip 库非常适合这一点。这是我的一个项目中的一个示例:

import io
import zipfile

zip_buffer = io.BytesIO()
with zipfile.ZipFile(zip_buffer, "a", zipfile.ZIP_DEFLATED, False) as zipper:
infile_object = s3.get_object(Bucket=bucket, Key=object_key)
infile_content = infile_object['Body'].read()
zipper.writestr(file_name, infile_content)

s3.put_object(Bucket=bucket, Key=PREFIX + zip_name, Body=zip_buffer.getvalue())

关于python - 如何使用 Boto3 Python 在 S3 中创建 zipfile?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62257753/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com