gpt4 book ai didi

docker - 如何使用 Docker 提供自定义 MLflow 模型?

转载 作者:行者123 更新时间:2023-12-05 07:14:34 24 4
gpt4 key购买 nike

我们有一个基本上遵循这个的项目 docker example唯一的区别是我们创建了一个类似于 this 的自定义模型其代码位于名为 forecast 的目录中。我们使用 mlflow run 成功运行了模型。当我们尝试为模型提供服务时,问题就出现了。做完之后

mlflow models build-docker -m "runs:/my-run-id/my-model" -n "my-image-name"

我们运行容器失败

docker run -p 5001:8080 "my-image-name"

错误如下:

ModuleNotFoundError: No module named 'forecast'

docker 镜像似乎不知道定义我们的自定义模型类的源代码。在 Conda 环境中,由于 mlflow.pyfunc.log_model 中的 code_path 参数,问题不会出现。

我们的 Dockerfile 非常基础,只有 FROM continuumio/miniconda3:4.7.12, RUN pip install {model_dependencies}

如何让docker镜像知道反序列化模型的源码并运行?

最佳答案

可以通过设置指定源代码依赖记录模型时的 code_paths 参数。因此,在您的情况下,您可以执行以下操作:

mlflow.pyfunc.log_model(..., code_paths=[<path to your forecast.py file>])

关于docker - 如何使用 Docker 提供自定义 MLflow 模型?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59881297/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com