gpt4 book ai didi

tensorflow - 无法在 tensorflow session 中保存 tf.contrib.learn wide and deep 模型并在 TensorFlow Serving 上提供它

转载 作者:行者123 更新时间:2023-12-03 12:41:34 25 4
gpt4 key购买 nike

我正在 TensorFlow 服务中运行 tf.contrib.learn wide and deep 模型并导出训练模型我正在使用这段代码

 with tf.Session() as sess:
init_op = tf.initialize_all_variables()
saver = tf.train.Saver()
m.fit(input_fn=lambda: input_fn(df_train), steps=FLAGS.train_steps)
print('model successfully fit!!')
results = m.evaluate(input_fn=lambda: input_fn(df_test), steps=1)
for key in sorted(results):
print("%s: %s" % (key, results[key]))
model_exporter = exporter.Exporter(saver)
model_exporter.init(
sess.graph.as_graph_def(),
init_op=init_op,
named_graph_signatures={
'inputs': exporter.generic_signature({'input':df_train}),
'outputs': exporter.generic_signature({'output':df_train[impressionflag]})})
model_exporter.export(export_path, tf.constant(FLAGS.export_version), sess)
print ('Done exporting!')

但是在使用命令 saver = tf.train.Saver() 时出现错误 ValueError: No variable to save is displayed enter image description here

如何保存模型,以便创建在 tensorflow 标准服务器中加载导出模型时需要的可服务对象?感谢您的帮助。

最佳答案

图表和 session 包含在 Estimator 中,不会暴露或泄露。因此,通过使用 Estimator.export(),我们可以导出模型并创建可用于在 model_servers 上运行的可服务对象。

关于tensorflow - 无法在 tensorflow session 中保存 tf.contrib.learn wide and deep 模型并在 TensorFlow Serving 上提供它,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40470308/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com