gpt4 book ai didi

python - 如何使用 export_savedmodel 函数导出 Estimator 模型

转载 作者:太空狗 更新时间:2023-10-29 17:07:15 25 4
gpt4 key购买 nike

有没有关于 export_savedmodel 的教程?

我已经经历了this article在 tensorflow.org 和 unittest code在github.com上,仍然不知道如何构造函数export_savedmodel

的参数 serving_input_fn

最佳答案

这样做:

your_feature_spec = {
"some_feature": tf.FixedLenFeature([], dtype=tf.string, default_value=""),
"some_feature": tf.VarLenFeature(dtype=tf.string),
}

def _serving_input_receiver_fn():
serialized_tf_example = tf.placeholder(dtype=tf.string, shape=None,
name='input_example_tensor')
# key (e.g. 'examples') should be same with the inputKey when you
# buid the request for prediction
receiver_tensors = {'examples': serialized_tf_example}
features = tf.parse_example(serialized_tf_example, your_feature_spec)
return tf.estimator.export.ServingInputReceiver(features, receiver_tensors)

estimator.export_savedmodel(export_dir, _serving_input_receiver_fn)

然后可以批量请求带有“预测”签名名称的服务模型。

来源:https://www.tensorflow.org/guide/saved_model#prepare_serving_inputs

关于python - 如何使用 export_savedmodel 函数导出 Estimator 模型,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42835809/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com