gpt4 book ai didi

node.js - 解决方法 lambda 500MB 临时存储

转载 作者:行者123 更新时间:2023-12-05 05:19:32 25 4
gpt4 key购买 nike

我想编写一个 Lambda 函数来检索 s3 对象,将其下载到函数的/tmp 文件夹,然后在该对象上运行 crypto.createHash(algorithm)。但我需要一个对象大小超过 500MB 的解决方案,因为这是 Lambda 临时存储限制。有什么解决方法吗?另外,如果我要检索的对象位于 bucketpolicy 的 Glacier-storage 类中,我该如何使用 Lambda 下载它?我需要一个 lambda 用于检索而另一个用于下载吗?感谢任何帮助,谢谢!

最佳答案

更新:您现在可以使用 Lambda 函数配置最多 10GB 的临时存储。


您应该能够将 S3 对象的内容流式传输到您的哈希算法中,而无需将其存储在 /tmp 文件夹中。您根本不必将其存储到本地磁盘。

关于存储在 Glacier 中的文件,因为这可能需要很长时间,是的,您必须从一个函数调用触发恢复,然后在对象恢复后触发另一次调用来计算哈希。

关于node.js - 解决方法 lambda 500MB 临时存储,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45925025/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com