- ubuntu12.04环境下使用kvm ioctl接口实现最简单的虚拟机
- Ubuntu 通过无线网络安装Ubuntu Server启动系统后连接无线网络的方法
- 在Ubuntu上搭建网桥的方法
- ubuntu 虚拟机上网方式及相关配置详解
CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.
这篇CFSDN的博客文章TensorFlow入门使用 tf.train.Saver()保存模型由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.
关于模型保存的一点心得 。
1
|
saver
=
tf.train.Saver(max_to_keep
=
3
)
|
在定义 saver 的时候一般会定义最多保存模型的数量,一般来说,如果模型本身很大,我们需要考虑到硬盘大小。如果你需要在当前训练好的模型的基础上进行 fine-tune,那么尽可能多的保存模型,后继 fine-tune 不一定从最好的 ckpt 进行,因为有可能一下子就过拟合了。但是如果保存太多,硬盘也有压力呀。如果只想保留最好的模型,方法就是每次迭代到一定步数就在验证集上计算一次 accuracy 或者 f1 值,如果本次结果比上次好才保存新的模型,否则没必要保存.
如果你想用不同 epoch 保存下来的模型进行融合的话,3到5 个模型已经足够了,假设这各融合的模型成为 M,而最好的一个单模型称为 m_best, 这样融合的话对于M 确实可以比 m_best 更好。但是如果拿这个模型和其他结构的模型再做融合的话,M 的效果并没有 m_best 好,因为M 相当于做了平均操作,减少了该模型的“特性”.
但是又有一种新的融合方式,就是利用调整学习率来获取多个局部最优点,就是当 loss 降不下了,保存一个 ckpt, 然后开大学习率继续寻找下一个局部最优点,然后用这些 ckpt 来做融合,还没试过,单模型肯定是有提高的,就是不知道还会不会出现上面再与其他模型融合就没提高的情况.
如何使用 tf.train.Saver() 来保存模型 。
之前一直出错,主要是因为坑爹的编码问题。所以要注意文件的路径绝对不不要出现什么中文呀.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
|
import
tensorflow as tf
config
=
tf.ConfigProto()
config.gpu_options.allow_growth
=
True
sess
=
tf.Session(config
=
config)
# Create some variables.
v1
=
tf.Variable([
1.0
,
2.3
], name
=
"v1"
)
v2
=
tf.Variable(
55.5
, name
=
"v2"
)
# Add an op to initialize the variables.
init_op
=
tf.global_variables_initializer()
# Add ops to save and restore all the variables.
saver
=
tf.train.Saver()
ckpt_path
=
'./ckpt/test-model.ckpt'
# Later, launch the model, initialize the variables, do some work, save the
# variables to disk.
sess.run(init_op)
save_path
=
saver.save(sess, ckpt_path, global_step
=
1
)
print
(
"Model saved in file: %s"
%
save_path)
|
Model saved in file: ./ckpt/test-model.ckpt-1 。
注意,在上面保存完了模型之后。应该把 kernel restart 之后才能使用下面的模型导入。否则会因为两次命名 “v1” 而导致名字错误.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
|
import
tensorflow as tf
config
=
tf.ConfigProto()
config.gpu_options.allow_growth
=
True
sess
=
tf.Session(config
=
config)
# Create some variables.
v1
=
tf.Variable([
11.0
,
16.3
], name
=
"v1"
)
v2
=
tf.Variable(
33.5
, name
=
"v2"
)
# Add ops to save and restore all the variables.
saver
=
tf.train.Saver()
# Later, launch the model, use the saver to restore variables from disk, and
# do some work with the model.
# Restore variables from disk.
ckpt_path
=
'./ckpt/test-model.ckpt'
saver.restore(sess, ckpt_path
+
'-'
+
str
(
1
))
print
(
"Model restored."
)
print
sess.run(v1)
print
sess.run(v2)
|
INFO:tensorflow:Restoring parameters from ./ckpt/test-model.ckpt-1 Model restored. [ 1. 2.29999995] 55.5 。
导入模型之前,必须重新再定义一遍变量.
但是并不需要全部变量都重新进行定义,只定义我们需要的变量就行了.
也就是说,你所定义的变量一定要在 checkpoint 中存在;但不是所有在checkpoint中的变量,你都要重新定义.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
|
import
tensorflow as tf
config
=
tf.ConfigProto()
config.gpu_options.allow_growth
=
True
sess
=
tf.Session(config
=
config)
# Create some variables.
v1
=
tf.Variable([
11.0
,
16.3
], name
=
"v1"
)
# Add ops to save and restore all the variables.
saver
=
tf.train.Saver()
# Later, launch the model, use the saver to restore variables from disk, and
# do some work with the model.
# Restore variables from disk.
ckpt_path
=
'./ckpt/test-model.ckpt'
saver.restore(sess, ckpt_path
+
'-'
+
str
(
1
))
print
(
"Model restored."
)
print
sess.run(v1)
|
INFO:tensorflow:Restoring parameters from ./ckpt/test-model.ckpt-1 Model restored. [ 1. 2.29999995] 。
tf.Saver([tensors_to_be_saved]) 中可以传入一个 list,把要保存的 tensors 传入,如果没有给定这个list的话,他会默认保存当前所有的 tensors。一般来说,tf.Saver 可以和 tf.variable_scope() 巧妙搭配,可以参考: 【迁移学习】往一个已经保存好的模型添加新的变量并进行微调 。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持我.
原文链接:https://blog.csdn.net/Jerr__y/article/details/78594494 。
最后此篇关于TensorFlow入门使用 tf.train.Saver()保存模型的文章就讲到这里了,如果你想了解更多关于TensorFlow入门使用 tf.train.Saver()保存模型的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
TensorFlow 提供了 3 种不同的数据存储格式 tf.train.Feature .它们是: tf.train.BytesList tf.train.FloatList tf.train.In
在我的设置中,我运行了一个脚本 火车一个模型并开始生成检查点。另一个脚本监视新的检查点和 评估 他们。脚本并行运行,因此评估只是训练之后的一步。 支持这种情况的正确 Tracks 配置是什么? 最佳答
什么是合理的设置?我可以在同一次执行中多次调用 Task.init() 吗? 最佳答案 免责声明:我是 allegro.ai Trains 团队的一员 一种解决方案是从 trains.automati
我想开始我的方式 ClearML (以前称为火车)。 我在documentation上看到的我需要在 ClearML 平台本身或使用 AWS 等的远程机器上运行服务器。 我真的很想绕过这个限制并在我的
我正在尝试使用 weka 的 MultilayerPerceptron 执行以下操作: 使用一小部分训练实例来训练一部分历元输入, 在剩余的周期中使用整组实例进行训练。 但是,当我在代码中执行以下操作
这个问题与对象检测有关,基本上是检测任何“已知”对象。例如,假设我有以下对象。 表格 瓶子。 相机 汽车 我将从所有这些单独的对象中拍摄 4 张照片。左边一个,右边一个,上下两个。我本来以为用这4张照
我已经编写了一段代码来训练Guassian过程回归模型来预测年龄。我已经编写了以下代码,并且运行良好:。但我注意到,每个纪元都输入了相同的数据,我认为这可能会导致过度拟合,所以我想使用Mini Bat
(一)、tf.train.Saver() (1). tf.train.Saver() 是用来保存tensorflow训练模型的,默认保存全部参数 (2). 用来加载参数,注:只加载存储在data
我是 PyTorch 的新手,我想知道您是否可以向我解释 PyTorch 中的默认 model.train() 与此处的 train() 函数之间的一些关键区别。 另一个 train() 函数位于关于
我可以在maskrcnn的预训练模型的基础上训练吗?如果预训练模型的类别与我自己的数据集不同,预训练模型仍然有效吗?。我尝试了一个新的班级训练数据集。但它似乎收敛得非常慢。
我可以按照Maskrcnn预先训练的模式进行训练吗?如果预先训练的模型的类别与我自己的数据集的类别不同,那么预先训练的模型是否仍然有效?。我尝试了一个新的班级训练数据集。但它似乎收敛得非常慢。
我想知道这两个 tensorflow 对象在用于训练神经网络时有什么区别? 最佳答案 Supervisor 即将被弃用,鼓励新用户使用 tf.train.FooSession 类 (来自 commen
我已经看到文档 tf.train.ExponentialMovingAverage 实现了这个公式: shadow_variable = decay * shadow_variable + (1 -
我发现在 Tensorflow 中有不同的方法来保存/恢复模型和变量。这些方式包括: tf.saved_model.simple_save tf.train.Checkpoint tf.train.S
查看两个带有参数的函数签名 tf.train.shuffle_batch_join( tensors_list, batch_size, capacity, min_after_dequeue, se
我使用 Binary data训练 DNN。 但是 tf.train.shuffle_batch 和 tf.train.batch 让我很困惑。 这是我的代码,我将对其进行一些测试。 首先Using_
正如文档/教程中提到的,我们可以调用 Estimator.fit()开始训练工作。 该方法所需的参数为 inputs这是对训练文件的 s3/file 引用。示例: estimator.fit({'tr
这个问题在这里已经有了答案: Split train data to train and validation by using tensorflow_datasets.load (TF 2.1) (
我知道这两个类都处理线程。根据文档,tf.train.Coordinator 协调一组线程的终止,而 tf.train.QueueRunner 保存队列的入队操作列表,每个操作都在一个线程中运行。 但
最近我读了this TensorFlow 中未记录特征的指南,因为我需要传递可变长度序列作为输入。但是,我发现 tf.train.SequenceExample 的协议(protocol)相对困惑(特
我是一名优秀的程序员,十分优秀!