gpt4 book ai didi

amazon-s3 - Scrapy 抓取在本地附加,在 S3 上替换?

转载 作者:行者123 更新时间:2023-12-03 22:26:56 25 4
gpt4 key购买 nike

我实现了一个 Scrapy 项目,现在在本地运行良好。使用 crawl 命令,每个蜘蛛将其 jsonlines 附加到同一个文件(如果文件存在)。当我使用 boto 将 feed exporter 更改为 S3 时,它现在会用上次运行的 spider 的数据覆盖整个文件,而不是附加到文件中。

有没有办法让 Scrapy/boto/S3 像在本地一样将 jsonlines 附加到文件中?

谢谢

最佳答案

无法在 S3 中附加到文件。您可以在 S3 存储桶上启用版本控制,然后每次将文件写入 S3 时,它都会创建一个新版本的文件。然后您可以使用 list_versions 检索文件的所有版本boto Bucket 对象的方法。

关于amazon-s3 - Scrapy 抓取在本地附加,在 S3 上替换?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23027992/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com