- ubuntu12.04环境下使用kvm ioctl接口实现最简单的虚拟机
- Ubuntu 通过无线网络安装Ubuntu Server启动系统后连接无线网络的方法
- 在Ubuntu上搭建网桥的方法
- ubuntu 虚拟机上网方式及相关配置详解
CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.
这篇CFSDN的博客文章tensorflow1.0学习之模型的保存与恢复(Saver)由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.
将训练好的模型参数保存起来,以便以后进行验证或测试,这是我们经常要做的事情。tf里面提供模型保存的是tf.train.Saver()模块.
模型保存,先要创建一个Saver对象:如 。
1
|
saver
=
tf.train.Saver()
|
在创建这个Saver对象的时候,有一个参数我们经常会用到,就是 max_to_keep 参数,这个是用来设置保存模型的个数,默认为5,即 max_to_keep=5,保存最近的5个模型。如果你想每训练一代(epoch)就想保存一次模型,则可以将 max_to_keep设置为None或者0,如:
1
|
saver
=
tf.train.Saver(max_to_keep
=
0
)
|
但是这样做除了多占用硬盘,并没有实际多大的用处,因此不推荐.
当然,如果你只想保存最后一代的模型,则只需要将max_to_keep设置为1即可,即 。
1
|
saver
=
tf.train.Saver(max_to_keep
=
1
)
|
创建完saver对象后,就可以保存训练好的模型了,如:
1
|
saver.save(sess,
'ckpt/mnist.ckpt'
,global_step
=
step)
|
第一个参数sess,这个就不用说了。第二个参数设定保存的路径和名字,第三个参数将训练的次数作为后缀加入到模型名字中.
saver.save(sess, 'my-model', global_step=0) ==> filename: 'my-model-0' ... saver.save(sess, 'my-model', global_step=1000) ==> filename: 'my-model-1000' 。
看一个mnist实例:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
|
# -*- coding: utf-8 -*-
"""
Created on Sun Jun 4 10:29:48 2017
@author: Administrator
"""
import
tensorflow as tf
from
tensorflow.examples.tutorials.mnist
import
input_data
mnist
=
input_data.read_data_sets(
"MNIST_data/"
, one_hot
=
False
)
x
=
tf.placeholder(tf.float32, [
None
,
784
])
y_
=
tf.placeholder(tf.int32,[
None
,])
dense1
=
tf.layers.dense(inputs
=
x,
units
=
1024
,
activation
=
tf.nn.relu,
kernel_initializer
=
tf.truncated_normal_initializer(stddev
=
0.01
),
kernel_regularizer
=
tf.nn.l2_loss)
dense2
=
tf.layers.dense(inputs
=
dense1,
units
=
512
,
activation
=
tf.nn.relu,
kernel_initializer
=
tf.truncated_normal_initializer(stddev
=
0.01
),
kernel_regularizer
=
tf.nn.l2_loss)
logits
=
tf.layers.dense(inputs
=
dense2,
units
=
10
,
activation
=
None
,
kernel_initializer
=
tf.truncated_normal_initializer(stddev
=
0.01
),
kernel_regularizer
=
tf.nn.l2_loss)
loss
=
tf.losses.sparse_softmax_cross_entropy(labels
=
y_,logits
=
logits)
train_op
=
tf.train.AdamOptimizer(learning_rate
=
0.001
).minimize(loss)
correct_prediction
=
tf.equal(tf.cast(tf.argmax(logits,
1
),tf.int32), y_)
acc
=
tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
sess
=
tf.InteractiveSession()
sess.run(tf.global_variables_initializer())
saver
=
tf.train.Saver(max_to_keep
=
1
)
for
i
in
range
(
100
):
batch_xs, batch_ys
=
mnist.train.next_batch(
100
)
sess.run(train_op, feed_dict
=
{x: batch_xs, y_: batch_ys})
val_loss,val_acc
=
sess.run([loss,acc], feed_dict
=
{x: mnist.test.images, y_: mnist.test.labels})
print
(
'epoch:%d, val_loss:%f, val_acc:%f'
%
(i,val_loss,val_acc))
saver.save(sess,
'ckpt/mnist.ckpt'
,global_step
=
i
+
1
)
sess.close()
|
代码中红色部分就是保存模型的代码,虽然我在每训练完一代的时候,都进行了保存,但后一次保存的模型会覆盖前一次的,最终只会保存最后一次。因此我们可以节省时间,将保存代码放到循环之外(仅适用max_to_keep=1,否则还是需要放在循环内). 。
在实验中,最后一代可能并不是验证精度最高的一代,因此我们并不想默认保存最后一代,而是想保存验证精度最高的一代,则加个中间变量和判断语句就可以了.
1
2
3
4
5
6
7
8
9
10
11
|
saver
=
tf.train.Saver(max_to_keep
=
1
)
max_acc
=
0
for
i
in
range
(
100
):
batch_xs, batch_ys
=
mnist.train.next_batch(
100
)
sess.run(train_op, feed_dict
=
{x: batch_xs, y_: batch_ys})
val_loss,val_acc
=
sess.run([loss,acc], feed_dict
=
{x: mnist.test.images, y_: mnist.test.labels})
print
(
'epoch:%d, val_loss:%f, val_acc:%f'
%
(i,val_loss,val_acc))
if
val_acc>max_acc:
max_acc
=
val_acc
saver.save(sess,
'ckpt/mnist.ckpt'
,global_step
=
i
+
1
)
sess.close()
|
如果我们想保存验证精度最高的三代,且把每次的验证精度也随之保存下来,则我们可以生成一个txt文件用于保存.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
|
saver
=
tf.train.Saver(max_to_keep
=
3
)
max_acc
=
0
f
=
open
(
'ckpt/acc.txt'
,
'w'
)
for
i
in
range
(
100
):
batch_xs, batch_ys
=
mnist.train.next_batch(
100
)
sess.run(train_op, feed_dict
=
{x: batch_xs, y_: batch_ys})
val_loss,val_acc
=
sess.run([loss,acc], feed_dict
=
{x: mnist.test.images, y_: mnist.test.labels})
print
(
'epoch:%d, val_loss:%f, val_acc:%f'
%
(i,val_loss,val_acc))
f.write(
str
(i
+
1
)
+
', val_acc: '
+
str
(val_acc)
+
' '
)
if
val_acc>max_acc:
max_acc
=
val_acc
saver.save(sess,
'ckpt/mnist.ckpt'
,global_step
=
i
+
1
)
f.close()
sess.close()
|
模型的恢复用的是restore()函数,它需要两个参数restore(sess, save_path),save_path指的是保存的模型路径。我们可以使用tf.train.latest_checkpoint()来自动获取最后一次保存的模型。如:
1
2
|
model_file
=
tf.train.latest_checkpoint(
'ckpt/'
)
saver.restore(sess,model_file)
|
则程序后半段代码我们可以改为:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
|
sess
=
tf.InteractiveSession()
sess.run(tf.global_variables_initializer())
is_train
=
False
saver
=
tf.train.Saver(max_to_keep
=
3
)
#训练阶段
if
is_train:
max_acc
=
0
f
=
open
(
'ckpt/acc.txt'
,
'w'
)
for
i
in
range
(
100
):
batch_xs, batch_ys
=
mnist.train.next_batch(
100
)
sess.run(train_op, feed_dict
=
{x: batch_xs, y_: batch_ys})
val_loss,val_acc
=
sess.run([loss,acc], feed_dict
=
{x: mnist.test.images, y_: mnist.test.labels})
print
(
'epoch:%d, val_loss:%f, val_acc:%f'
%
(i,val_loss,val_acc))
f.write(
str
(i
+
1
)
+
', val_acc: '
+
str
(val_acc)
+
' '
)
if
val_acc>max_acc:
max_acc
=
val_acc
saver.save(sess,
'ckpt/mnist.ckpt'
,global_step
=
i
+
1
)
f.close()
#验证阶段
else
:
model_file
=
tf.train.latest_checkpoint(
'ckpt/'
)
saver.restore(sess,model_file)
val_loss,val_acc
=
sess.run([loss,acc], feed_dict
=
{x: mnist.test.images, y_: mnist.test.labels})
print
(
'val_loss:%f, val_acc:%f'
%
(val_loss,val_acc))
sess.close()
|
标红的地方,就是与保存、恢复模型相关的代码。用一个bool型变量is_train来控制训练和验证两个阶段.
整个源程序:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
|
# -*- coding: utf-8 -*-
"""
Created on Sun Jun 4 10:29:48 2017
@author: Administrator
"""
import
tensorflow as tf
from
tensorflow.examples.tutorials.mnist
import
input_data
mnist
=
input_data.read_data_sets(
"MNIST_data/"
, one_hot
=
False
)
x
=
tf.placeholder(tf.float32, [
None
,
784
])
y_
=
tf.placeholder(tf.int32,[
None
,])
dense1
=
tf.layers.dense(inputs
=
x,
units
=
1024
,
activation
=
tf.nn.relu,
kernel_initializer
=
tf.truncated_normal_initializer(stddev
=
0.01
),
kernel_regularizer
=
tf.nn.l2_loss)
dense2
=
tf.layers.dense(inputs
=
dense1,
units
=
512
,
activation
=
tf.nn.relu,
kernel_initializer
=
tf.truncated_normal_initializer(stddev
=
0.01
),
kernel_regularizer
=
tf.nn.l2_loss)
logits
=
tf.layers.dense(inputs
=
dense2,
units
=
10
,
activation
=
None
,
kernel_initializer
=
tf.truncated_normal_initializer(stddev
=
0.01
),
kernel_regularizer
=
tf.nn.l2_loss)
loss
=
tf.losses.sparse_softmax_cross_entropy(labels
=
y_,logits
=
logits)
train_op
=
tf.train.AdamOptimizer(learning_rate
=
0.001
).minimize(loss)
correct_prediction
=
tf.equal(tf.cast(tf.argmax(logits,
1
),tf.int32), y_)
acc
=
tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
sess
=
tf.InteractiveSession()
sess.run(tf.global_variables_initializer())
is_train
=
True
saver
=
tf.train.Saver(max_to_keep
=
3
)
#训练阶段
if
is_train:
max_acc
=
0
f
=
open
(
'ckpt/acc.txt'
,
'w'
)
for
i
in
range
(
100
):
batch_xs, batch_ys
=
mnist.train.next_batch(
100
)
sess.run(train_op, feed_dict
=
{x: batch_xs, y_: batch_ys})
val_loss,val_acc
=
sess.run([loss,acc], feed_dict
=
{x: mnist.test.images, y_: mnist.test.labels})
print
(
'epoch:%d, val_loss:%f, val_acc:%f'
%
(i,val_loss,val_acc))
f.write(
str
(i
+
1
)
+
', val_acc: '
+
str
(val_acc)
+
' '
)
if
val_acc>max_acc:
max_acc
=
val_acc
saver.save(sess,
'ckpt/mnist.ckpt'
,global_step
=
i
+
1
)
f.close()
#验证阶段
else
:
model_file
=
tf.train.latest_checkpoint(
'ckpt/'
)
saver.restore(sess,model_file)
val_loss,val_acc
=
sess.run([loss,acc], feed_dict
=
{x: mnist.test.images, y_: mnist.test.labels})
print
(
'val_loss:%f, val_acc:%f'
%
(val_loss,val_acc))
sess.close()
|
参考文章:http://www.zzvips.com/article/138370.html 。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持我.
原文链接:https://www.cnblogs.com/denny402/p/6940134.html 。
最后此篇关于tensorflow1.0学习之模型的保存与恢复(Saver)的文章就讲到这里了,如果你想了解更多关于tensorflow1.0学习之模型的保存与恢复(Saver)的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
我尝试根据表单元素的更改禁用/启用保存按钮。但是,当通过弹出按钮选择更改隐藏输入字段值时,保存按钮不受影响。 下面是我的代码。我正在尝试序列化旧的表单值并与更改后的表单值进行比较。但我猜隐藏的字段值无
我正在尝试保存模型的实例,但我得到了 Invalid EmbeddedDocumentField item (1) 其中 1 是项目的 ID(我认为)。 模型定义为 class Graph(Docum
我有一个非常奇怪的问题......在我的 iPhone 应用程序中,用户可以打开相机胶卷中的图像,在我的示例中 1920 x 1080 像素 (72 dpi) 的壁纸。 现在,想要将图像的宽度调整为例
目前,我正在使用具有排序/过滤功能的数据表成功地从我的数据库中显示图像元数据。在我的数据表下方,我使用第三方图像覆盖流( http://www.jacksasylum.eu/ContentFlow/
我的脚本有问题。我想按此顺序执行以下步骤: 1. 保存输入字段中的文本。 2. 删除输入字段中的所有文本。 3. 在输入字段中重新加载之前删除的相同文本。 我的脚本的问题是 ug()- 函数在我的文本
任何人都可以帮助我如何保存多对多关系吗?我有任务,用户可以有很多任务,任务可以有很多用户(多对多),我想要实现的是,在更新表单中,管理员可以将多个用户分配给特定任务。这是通过 html 多选输入来完成
我在 Tensorflow 中训练了一个具有批归一化的模型。我想保存模型并恢复它以供进一步使用。批量归一化是通过 完成的 def batch_norm(input, phase): retur
我遇到了 grails 的问题。我有一个看起来像这样的域: class Book { static belongsTo = Author String toString() { tit
所以我正在开发一个应用程序,一旦用户连接(通过 soundcloud),就会出现以下对象: {userid: userid, username: username, genre: genre, fol
我正在开发一个具有多选项卡布局的 Angular 7 应用程序。每个选项卡都包含一个组件,该组件可以引用其他嵌套组件。 当用户选择一个新的/另一个选项卡时,当前选项卡上显示的组件将被销毁(我不仅仅是隐
我尝试使用 JEditorPane 进行一些简单的文本格式化,但随着知识的增长,我发现 JTextPane 更容易实现并且更强大。 我的问题是如何将 JTextPane 中的格式化文本保存到文件?它应
使用 Docker 相当新。 我为 Oracle 11g Full 提取了一个图像。创建了一个数据库并将应用程序安装到容器中。 正确配置后,我提交了生成 15GB 镜像的容器。 测试了该图像的新容器,
我是使用 Xcode 和 swift 的新手,仍在学习中。我在将核心数据从实体传递到文本字段/标签时遇到问题,然后用户可以选择编辑和保存记录。我的目标是,当用户从 friendslistViewCon
我正在用 Java 编写 Android 游戏,我需要一种可靠的方法来快速保存和加载应用程序状态。这个问题似乎适用于大多数 OO 语言。 了解我需要保存的内容:我正在使用策略模式来控制我的游戏实体。我
我想知道使用 fstream 加载/保存某种结构类型的数组是否是个好主意。注意,我说的是加载/保存到二进制文件。我应该加载/保存独立变量,例如 int、float、boolean 而不是结构吗?我这么
我希望能够将 QNetworkReply 保存到 QString/QByteArray。在我看到的示例中,它们总是将流保存到另一个文件。 目前我的代码看起来像这样,我从主机那里得到一个字符串,我想做的
我正在创建一个绘图应用程序。我有一个带有 Canvas 的自定义 View ,它根据用户输入绘制线条: class Line { float startX, startY, stopX, stop
我有 3 个 Activity 第一个 Activity 调用第二个 Activity ,第二个 Activity 调用第三个 Activity 。 第二个 Activity 使用第一个 Activi
我想知道如何在 Xcode 中保存 cookie。我想使用从一个网页获取的 cookie 并使用它访问另一个网页。我使用下面的代码登录该网站,我想保存从该连接获得的 cookie,以便在我建立另一个连
我有一个 SQLite 数据库存储我的所有日历事件,建模如下: TimerEvent *Attributes -date -dateForMark -reminder *Relat
我是一名优秀的程序员,十分优秀!