gpt4 book ai didi

docker - 如何在 docker-compose 中为 tensorflow-serving 指定 "model_config_file"变量?

转载 作者:行者123 更新时间:2023-12-02 17:59:30 36 4
gpt4 key购买 nike

我先说我对 docker 和 docker-compose 缺乏经验。我正在尝试转换我的 docker run ...命令到 docker-compose.yml 文件,但是,我无法找到 models.config 文件。

我能够使用以下 docker run ... 正确运行 tensorflow 服务 docker 容器命令:

docker run -t --rm \
tensorflow/serving \
-p 8501:8501 \
-v "$(pwd)/models/:/models/" \
--model_config_file=/models/models.config \
--model_config_file_poll_wait_seconds=60

这按预期工作,models.config 文件位于 /models/models.config 的容器中。正如预期的那样。

tensorflow 服务页面没有提到任何关于 docker-compose 的内容,但是,我更愿意使用它而不是 docker run ...命令。我对 docker-compose 文件的尝试是:
version: '3.3'
services:
server:
image: tensorflow/serving
ports:
- '8501:8501'
volumes:
- './models:/models'
environment:
- 'model_config_file=/models/models.config'
- 'model_config_file_poll_wait_seconds=60'

使用这个 docker-compose 文件,容器运行,但是,环境变量似乎被完全忽略了,所以我不确定这是否是我应该设置它们的方式。容器镜像在models.config 文件的默认位置查找,但它不存在,因此它不会加载models.config 中定义的配置。

那么,如何使用 docker-compose 定义这些值,或运行 tensorflow 服务容器?

我很感激任何帮助。

谢谢

最佳答案

所以我在其他地方遇到了一个解决方案,我在任何讨论 tensorflow /服务的线程/帖子/等上都没有找到,所以我会在这里发布我的答案。

command 下添加这些选项部分,如下所示。

version: '3.3'
services:
server:
image: tensorflow/serving
ports:
- '8501:8501'
volumes:
- './models:/models'
command:
- '--model_config_file=/models/models.config'
- '--model_config_file_poll_wait_seconds=60'

我对 docker 了解不多,所以我不知道这是否是一个明显的答案,但即使经过大量谷歌搜索,我也没有找到解决方案。

关于docker - 如何在 docker-compose 中为 tensorflow-serving 指定 "model_config_file"变量?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60396753/

36 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com