gpt4 book ai didi

docker - gRPC 服务器响应操作系统错误,grpc_status : 14

转载 作者:行者123 更新时间:2023-12-02 19:51:57 24 4
gpt4 key购买 nike

使用 Tensorflow Serving 示例中的基本 gRPC 客户端从在 docker 上运行的模型获取预测,我得到以下响应:

        status = StatusCode.UNAVAILABLE
details = "OS Error"
debug_error_string = "{"created":"@1580748231.250387313",
"description":"Error received from peer",
"file":"src/core/lib/surface/call.cc",
"file_line":1017,"grpc_message":"OS Error","grpc_status":14}"

这是我的客户目前的样子:
import grpc
import tensorflow as tf
import cv2

from tensorflow_serving.apis import predict_pb2
from tensorflow_serving.apis import prediction_service_pb2_grpc


def main():
data = cv2.imread('/home/matt/Downloads/cat.jpg')

channel = grpc.insecure_channel('localhost:8500')
stub = prediction_service_pb2_grpc.PredictionServiceStub(channel)

request = predict_pb2.PredictRequest()
request.model_spec.name = 'model'
request.model_spec.signature_name = 'serving_default'

request.inputs['image_bytes'].CopyFrom(
tf.make_tensor_proto(data, shape=[1, data.size]))
result = stub.Predict(request, 10.0) # 10 secs timeout
print(result)

if __name__ == '__main__':
main()


在此先感谢您的帮助:)

最佳答案

在这里提供解决方案,即使它出现在评论部分以造福社区。

解决方案是,在执行客户端文件之前,我们需要通过使用下面给出的代码运行 Docker 容器来调用 Tensorflow Model Server :

docker run -t --rm -p 8501:8501 \
-v "$TESTDATA/saved_model_half_plus_two_cpu:/models/half_plus_two" \
-e MODEL_NAME=half_plus_two \
tensorflow/serving &

除了调用 Tensorflow Model Server,
  • 它将模型的本地路径与服务器上模型的路径和
  • 映射
  • 它将映射用于与 Tensorflow 模型服务器通信的端口。 (端口 8500 暴露于 gRPC 和端口 8501 暴露于 REST API )
  • 关于docker - gRPC 服务器响应操作系统错误,grpc_status : 14,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60043772/

    24 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com