gpt4 book ai didi

docker - 使用Tensorflow服务的OpenFaaS服务模型

转载 作者:行者123 更新时间:2023-12-02 12:37:16 25 4
gpt4 key购买 nike

我想使用OpenFaaS服务Tensorfow模型。基本上,我想以tensorflow serving公开我的模型的方式调用“serve”函数。

OpenFaaS在Kubernetes上正常运行,我可以通过curl或从UI调用函数。

我以the incubator-flask为例,但我一直都在接收502 Bad Gateway

OpenFaaS项目如下所示

serve/
- Dockerfile
stack.yaml

内部 Dockerfile是下面的
FROM tensorflow/serving

RUN mkdir -p /home/app

RUN apt-get update \
&& apt-get install curl -yy

RUN echo "Pulling watchdog binary from Github." \
&& curl -sSLf https://github.com/openfaas-incubator/of-watchdog/releases/download/0.4.6/of-watchdog > /usr/bin/fwatchdog \
&& chmod +x /usr/bin/fwatchdog

WORKDIR /root/

# remove unecessery logs from S3
ENV TF_CPP_MIN_LOG_LEVEL=3

ENV AWS_ACCESS_KEY_ID=${AWS_ACCESS_KEY_ID}
ENV AWS_SECRET_ACCESS_KEY=${AWS_SECRET_ACCESS_KEY}
ENV AWS_REGION=${AWS_REGION}
ENV S3_ENDPOINT=${S3_ENDPOINT}

ENV fprocess="tensorflow_model_server --rest_api_port=8501 \
--model_name=${MODEL_NAME} \
--model_base_path=${MODEL_BASE_PATH}"

# Set to true to see request in function logs
ENV write_debug="true"
ENV cgi_headers="true"
ENV mode="http"
ENV upstream_url="http://127.0.0.1:8501"

# gRPC tensorflow serving
# EXPOSE 8500

# REST tensorflow serving
# EXPOSE 8501

RUN touch /tmp/.lock
HEALTHCHECK --interval=5s CMD [ -e /tmp/.lock ] || exit 1

CMD [ "fwatchdog" ]
stack.yaml文件如下所示
provider:
name: faas
gateway: https://gateway-url:8080

functions:
serve:
lang: dockerfile
handler: ./serve
image: repo/serve-model:latest
imagePullPolicy: always

我使用 faas-cli build -f stack.yaml构建镜像,然后使用 faas-cli push -f stack.yaml将其推送到我的docker注册表中。

当我执行 faas-cli deploy -f stack.yaml -e AWS_ACCESS_KEY_ID=...时,我得到 Accepted 202,它在我的函数中正确显示。现在,我想在 tensorflow serving中指定的模型上调用 ENV

我尝试使其工作的方法是以这种方式使用 curl
curl -d '{"inputs": ["1.0", "2.0", "5.0"]}' -X POST https://gateway-url:8080/function/deploy-model/v1/models/mnist:predict

但我总是获得 502 Bad Gateway

是否有人有使用OpenFaaS和Tensorflow服务的经验?提前致谢

P.S.

如果我在没有 tensorflow serving的情况下运行 of-watchdog(基本上没有openfaas东西),则该模型可以正确使用。

最佳答案

详细说明@viveksyngh提到的链接。

tensorflow-serving-openfaas:

打包TensorFlow与OpenFaaS一起使用的示例,可通过OpenFaaS部署和管理,并具有Kubernetes的自动缩放,从零缩放和合理配置。

该示例改编自:https://www.tensorflow.org/serving

先决条件:

OpenFaaS

OpenFaaS CLI

docker

说明:

克隆仓库

$ mkdir -p ~/dev/

$ cd ~/dev/

$ git clone https://github.com/alexellis/tensorflow-serving-openfaas

克隆样本模型并将其复制到函数的构建上下文中
$ cd ~/dev/tensorflow-serving-openfaas

$ git clone https://github.com/tensorflow/serving

$ cp -r serving/tensorflow_serving/servables/tensorflow/testdata/saved_model_half_plus_two_cpu ./ts-serve/saved_model_half_plus_two_cpu

编辑Docker Hub用户名

您需要编辑stack.yml文件,并用您的Docker Hub帐户替换alexellis2。

建立功能图
$  faas-cli build

现在,您应该在本地库中有一个Docker镜像,可以通过faas-cli up将其部署到集群中

在本地测试功能

所有OpenFaaS镜像都可以在不安装OpenFaaS的情况下独立运行,让我们进行快速测试,但是用您自己的名称替换alexellis2。
$ docker run -p 8081:8080 -ti alexellis2/ts-serve:latest

现在在另一个终端中:
$ curl -d '{"instances": [1.0, 2.0, 5.0]}' \
-X POST http://127.0.0.1:8081/v1/models/half_plus_two:predict

{
"predictions": [2.5, 3.0, 4.5
]
}

From here you can run faas-cli up and then invoke your function from the OpenFaaS UI, CLI or REST API.

$ export OPENFAAS_URL=http://127.0.0.1:8080

$ curl -d '{"instances": [1.0, 2.0, 5.0]}' $OPENFAAS_URL/function/ts-serve/v1/models/half_plus_two:predict

{
"predictions": [2.5, 3.0, 4.5
]
}

关于docker - 使用Tensorflow服务的OpenFaaS服务模型,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54750562/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com