gpt4 book ai didi

docker - 如何使用 Docker 和 DigitalOcean Spaces 部署 TensorFlow Serving

转载 作者:行者123 更新时间:2023-12-02 19:20:41 35 4
gpt4 key购买 nike

如何配置 TensorFlow Serving 以使用存储在 DigitalOcean Spaces 中的文件?

解决方案很重要:

  • 提供对配置模型文件的访问
  • 提供对数据的非公开访问

我在 DigitalOcean Spaces 中配置了一个名为 your_bucket_name 的存储桶,其结构如下:

- your_bucket_name
- config
- batching_parameters.txt
- monitoring_config.txt
- models.config
- models
- model_1
- version_1.1
- variables
- variables.data-00000-of-00001
- variables.index
- saved_model.pb
- model_2
- ...
- model_3
- ...

最佳答案

编辑:自 TensorFlow 2.6 起,S3 支持已被弃用,Docker 镜像也不再支持存储在 S3 上的模型 [ reference ]. (归功于@RonaldDas。)


历史:TensorFlow Serving 支持与 Amazon S3 存储桶集成。由于 DigitalOcean Spaces 提供了类似的接口(interface),因此可以借助 S3 接口(interface)通过 Docker 轻松地使用 DigitalOcean Spaces 运行 TensorFlow Servings。

为了让其他人更轻松,我在下面详细说明了您需要了解的有关运行服务器的所有信息:

1。环境变量(可选)

在您的环境中定义以下变量:

AWS_ACCESS_KEY_ID=...
AWS_SECRET_ACCESS_KEY=...

(这不是绝对必要的,但定义这些变量使您的部署比例如将值硬编码到 docker-compose 文件中更安全。)

作为配置云存储桶的一部分,您会从 DigitalOcean Spaces 收到这些变量的值。

2。服务器

您可以使用 Docker 或 docker-compose 启动服务器:

2.1。使用 Docker

这是从命令提示符启动服务器的最小 docker 命令:

docker run \
-p 8500:8500 \
-p 8501:8501 \
-e AWS_ACCESS_KEY_ID=${AWS_ACCESS_KEY_ID} \
-e AWS_REGION=nyc3 \
-e AWS_SECRET_ACCESS_KEY=${AWS_SECRET_ACCESS_KEY} \
-e S3_ENDPOINT=nyc3.digitaloceanspaces.com \
tensorflow/serving \
--model_config_file=s3://your_bucket_name/config/models.config

(要在 Windows 上运行它,您可能需要删除反引号换行符以使其成为单行命令。)

2.2。使用 docker-compose

此 docker-compose 配置在配置服务器的方式上更详细一些,但您也可以通过简单的 docker 命令使用这些选项。

version: "3"
services:
tensorflow-servings:
image: tensorflow/serving:latest
ports:
- 8500:8500
- 8501:8501
command:
- --batching_parameters_file=s3://your_bucket_name/config/batching_parameters.txt
- --enable_batching=true
- --model_config_file=s3://your_bucket_name/config/only_toxic.config
- --model_config_file_poll_wait_seconds=300
- --monitoring_config_file=s3://your_bucket_name/config/monitoring_config.txt
- --rest_api_timeout_in_ms=30000
environment:
- AWS_ACCESS_KEY_ID=${AWS_ACCESS_KEY_ID}
- AWS_LOG_LEVEL=3
- AWS_REGION=nyc3
- AWS_SECRET_ACCESS_KEY=${AWS_SECRET_ACCESS_KEY}
- S3_ENDPOINT=nyc3.digitaloceanspaces.com

这里降低了日志级别,因为有很多不是实际错误的“连接已释放”和“无响应正文”消息。 (有关详细信息,请参阅 GitHub Issue: AWS lib is verbose when using S3。)

3。配置文件:

配置文件看起来像这样,它们是 Protocol Buffer :

3.1。模型配置

model_config_list {
config {
name: 'model_1'
base_path: 's3://your_bucket_name/models/model_1/'
model_platform: "tensorflow"
},
config {
...
},
config {
...
}
}

3.2。 batching_parameters.txt(可选)

此文件定义了 TensorFlow Serving 的指南;引导它在服务器中处理批处理的方式。

    max_batch_size { value: 1024 }
batch_timeout_micros { value: 100 }
num_batch_threads { value: 4 }
pad_variable_length_inputs: true

3.3。 monitoring_config.txt(可选)

此文件通过下面定义的端点提供各种统计信息。

prometheus_config {
enable: true,
path: "/monitoring/metrics"
}

关于docker - 如何使用 Docker 和 DigitalOcean Spaces 部署 TensorFlow Serving,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60051823/

35 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com