gpt4 book ai didi

tensorflow - 如何导出急切执行模型?

转载 作者:行者123 更新时间:2023-12-03 13:03:27 25 4
gpt4 key购买 nike

完成我的模型后,我现在希望导出和部署它,关注 this TensorFlow 网站上的教程。但是,没有说明如何在 Eager Execution 中执行此操作,我无法向 builder.add_meta_graph_and_variables() 提供 session 或图表。 .

这是我的代码需要急切和图形兼容的情况,还是我需要保存模型、将其导入 session 并从那里导出的情况?

最佳答案

TF 2.0 Alpha 支持导出/保存 Eager Execution Model(2.0 中默认为 Eager Execution)。 SavedModel 包含完整的 TensorFlow 程序,包括权重和计算。

相同的示例代码如下所示:

!pip install -q tensorflow==2.0.0-alpha0
import tensorflow as tf

pretrained_model = tf.keras.applications.MobileNet()
tf.saved_model.save(pretrained_model, "/tmp/mobilenet/1/")

#Loading the saved model
loaded = tf.saved_model.load("/tmp/mobilenet/1/")
infer = loaded.signatures["serving_default"]

为模特服务:
nohup tensorflow_model_server \
--rest_api_port=8501 \
--model_name=mobilenet \
--model_base_path="/tmp/mobilenet" >server.log 2>&1

#Sending the Request for Inference

!pip install -q requests
import json
import numpy
import requests
data = json.dumps({"signature_name": "serving_default",
"instances": x.tolist()})
headers = {"content-type": "application/json"}
json_response = requests.post('http://localhost:8501/v1/models/mobilenet:predict',
data=data, headers=headers)
predictions = numpy.array(json.loads(json_response.text)["predictions"])

关于tensorflow - 如何导出急切执行模型?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53230290/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com