gpt4 book ai didi

python - frozen_inference_graph.pb 和 saved_model.pb 有什么区别?

转载 作者:太空狗 更新时间:2023-10-29 18:26:06 31 4
gpt4 key购买 nike

我有一个经过训练的模型 (Faster R-CNN),我使用 export_inference_graph.py 将其导出以用于推理。我试图了解创建的 frozen_inference_graph.pbsaved_model.pb 以及 model.ckpt* 文件之间的区别。我还看到了 .pbtxt 表示。

我试着通读了这篇文章,但找不到真正的答案:https://www.tensorflow.org/extend/tool_developers/

每个文件包含什么?哪些可以转换为其他哪些?每个的理想目的是什么?

最佳答案

frozen_inference_graph.pb,是一个无法再训练的卡住图,它定义了graphdef,实际上是一个序列化图,可以用这段代码加载:

def load_graph(frozen_graph_filename):
with tf.gfile.GFile(frozen_graph_filename, "rb") as f:
graph_def = tf.GraphDef()
graph_def.ParseFromString(f.read())
return graph_def
tf.import_graph_def(load_graph("frozen_inference_graph.pb"))

保存的模型是由 tf.saved_model.builder 生成的模型,必须导入到 session 中,该文件包含具有所有训练权重的完整图(就像卡住图一样)但可以在此处进行训练,这个没有序列化,需要通过这个片段加载。 [] 是可以被 saved_model_cli 读取的标签常量.该模型也经常用于预测,例如 google ml engine par 示例:

with tf.Session() as sess:
tf.saved_model.loader.load(sess, [], "foldername to saved_model.pb, only folder")

model.ckpt 文件是检查点,在训练期间生成,用于恢复训练或在训练后出现问题时进行备份。如果您有保存的模型和卡住的图形,则可以忽略它。

.pbtxt 文件与之前讨论的模型基本相同,但人类可读,而不是二进制文件。这些也可以忽略。

要回答您的转换问题:保存的模型可以转换为卡住图,反之亦然,虽然从卡住图中提取的 saved_model 也不可训练,但它的存储方式是保存模型格式。可以读入检查点并将其加载到 session 中,然后您可以从中构建保存的模型。

希望能帮到你,有什么问题,尽管问!

补充:

如何从保存的模型文件夹结构开始卡住图表。这篇文章是旧的,所以我之前使用的方法可能不再适用,它很可能仍然适用于 Tensorflow 1.+。

下载开始this file from the tensorflow library ,然后这段代码片段应该可以解决问题:

    import freeze_graph # the file you just downloaded
from tensorflow.python.saved_model import tag_constants # might be unnecessary

freeze_graph.freeze_graph(
input_graph=None,
input_saver=None,
input_binary=None,
input_checkpoint=None,
output_node_names="dense_output/BiasAdd",
restore_op_name=None,
filename_tensor_name=None,
output_graph=os.path.join(path, "frozen_graph.pb"),
clear_devices=None,
initializer_nodes=None,
input_saved_model_dir=path,
saved_model_tags=tag_constants.SERVING
)

output_node_names = 最终操作的节点名称,如果你在密集层结束,它将是密集层名称/BiasAdd

output_graph = 输出图名

input_saved_model_dir = 已保存模型的根文件夹

saved_model_tags = 保存的模型标签,在你的情况下这可以是无,但是我确实使用了标签。

另一个补充:

上面已经提供了加载模型的代码。要实际预测您需要一个 session ,对于已保存的模型,此 session 已经创建,对于卡住模型,则不是。

保存的模型:

with tf.Session() as sess:
tf.saved_model.loader.load(sess, [], "foldername to saved_model.pb, only folder")
prediction = sess.run(output_tensor, feed_dict={input_tensor: test_images})

卡住模型:

tf.import_graph_def(load_graph("frozen_inference_graph.pb"))
with tf.Session() as sess:
prediction = sess.run(output_tensor, feed_dict={input_tensor: test_images})

要进一步了解您的输入和输出层是什么,您需要使用 tensorboard 检查它们,只需将以下代码行添加到您的 session 中:

tf.summary.FileWriter("path/to/folder/to/save/logs", sess.graph)

此行将创建一个日志文件,您可以使用 cli/powershell 打开该文件,以查看如何运行 tensorboard,查看此 previously posted question

关于python - frozen_inference_graph.pb 和 saved_model.pb 有什么区别?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52934795/

31 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com