gpt4 book ai didi

amazon-web-services - AWS Lambda - 如何在 AWS 层中放置 ONNX 模型

转载 作者:行者123 更新时间:2023-12-04 08:50:41 24 4
gpt4 key购买 nike

目前,我一直在从 S3 下载我的 ONNX 模型,如下所示:

s3 = boto3.client('s3')
if os.path.isfile('/tmp/model.onnx') != True:
s3.download_file('test', 'models/model.onnx', '/tmp/model.onnx')
inference_session = onnxruntime.InferenceSession('/tmp/model.onnx')
但是,我想减少必须下载此模型的延迟。为此,我希望将模型保存在 AWS Lambda 层中。但是,我在这样做时遇到了麻烦。
我尝试创建一个 ZIP 文件,如下所示:
- python
- model.onnx
并像 inference_session = onnxruntime.InferenceSession('/opt/model.onnx') 一样加载它但我收到“文件不存在”错误。我应该怎么做才能确保该模型可以在 /opt/ 中找到目录?
注意:我的 AWS Lambda 函数在 Python 3.6 上运行。

最佳答案

您的文件应该在 /opt/python/model.onnx .因此,您应该能够使用以下方法来获取它:

inference_session = onnxruntime.InferenceSession('/opt/python/model.onnx')
如果您不希望您的文件位于 python文件夹,然后不要使用此类文件夹创建图层。只要 model.onnx在 zip 的根文件夹中,而不是在 python 中文件夹。

关于amazon-web-services - AWS Lambda - 如何在 AWS 层中放置 ONNX 模型,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/64114454/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com