gpt4 book ai didi

php - 从 S3 存储桶中删除大量对象会卡住。为什么?

转载 作者:搜寻专家 更新时间:2023-10-31 22:15:04 24 4
gpt4 key购买 nike

我正在使用 undesigned用于删除 S3 对象的 API。我可以很好地删除多达 20 到 30 个对象。如果我进行批量删除,比如超过 100 或 200 个对象,它没有响应。

我不想删除 S3 存储桶。对于 80 到 100 个对象,我得到了结果,之后我没有在 php 中得到结果。对象没有从 S3 中删除。我不知道为什么?

编辑

我实现了 Theodore R. Smith 的想法。Elachys 也给出了同样的想法。但是 theodore 有点 breif。请看下面我的结果。

没用。我把文件写在我的末尾以跟踪状态。我选择了 53 个文件并开始删除。但是它在 40 个对象后停止。然后用 0kb 的 105 个文件停止在 30 个 Assets 。在文件中写入我正在获取 105 个对象删除的值——S3 deleted Started09:02:34 并且第 30 个删除在 Completed S3 Delete 09:02:44 结束。然后是第 31 个S3 删除开始于 Started S3 Delete 09:02:44 但没有从 S3 获得结果。

任何我遗漏的内容请告诉我。我到现在还没有得到结果。

你有什么想法吗?

更新

解决方案:

终于通过使用以下 API 解决了我的问题

https://raw.github.com/tylerhall/php-aws/master/class.s3.php

现在工作正常。删除了 100 多个对象在几秒钟内得到了很好的结果。也使用 S3fox 进行了检查。完美!

谢谢大家的回答

最佳答案

听起来脚本可能超时或未以某种方式完成执行。

回显脚本底部的内容并查看它是否显示。

如果不是超时问题,请检查您的 php 错误日志。

在某种程度上,它可能是某种“锤子保护”。出于调试目的,尝试在每次删除之间放置一个 sleep(1); 并查看它是否有效。

关于php - 从 S3 存储桶中删除大量对象会卡住。为什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/7426062/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com