- ubuntu12.04环境下使用kvm ioctl接口实现最简单的虚拟机
- Ubuntu 通过无线网络安装Ubuntu Server启动系统后连接无线网络的方法
- 在Ubuntu上搭建网桥的方法
- ubuntu 虚拟机上网方式及相关配置详解
CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.
这篇CFSDN的博客文章浅谈keras.callbacks设置模型保存策略由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.
如下所示:
keras.callbacks.ModelCheckpoint(self.checkpoint_path, verbose=0, save_weights_only=True,mode="max",save_best_only=True).
默认是每一次poch,但是这样硬盘空间很快就会被耗光. 。
将save_best_only 设置为True使其只保存最好的模型,值得一提的是其记录的acc是来自于一个monitor_op,其默认为"val_loss",其实现是取self.best为 -np.Inf. 所以,第一次的训练结果总是被保存. 。
mode模式自动为auto 和 max一样,还有一个min的选项...应该是loss没有负号的时候用的.... 。
https://keras.io/callbacks/ 浏览上面的文档. 。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
|
# Print the batch number at the beginning of every batch.
batch_print_callback
=
LambdaCallback(
on_batch_begin
=
lambda
batch,logs:
print
(batch))
# Stream the epoch loss to a file in JSON format. The file content
# is not well-formed JSON but rather has a JSON object per line.
import
json
json_log
=
open
(
'loss_log.json'
, mode
=
'wt'
, buffering
=
1
)
json_logging_callback
=
LambdaCallback(
on_epoch_end
=
lambda
epoch, logs: json_log.write(
json.dumps({
'epoch'
: epoch,
'loss'
: logs[
'loss'
]})
+
'\n'
),
on_train_end
=
lambda
logs: json_log.close()
)
# Terminate some processes after having finished model training.
processes
=
...
cleanup_callback
=
LambdaCallback(
on_train_end
=
lambda
logs: [
p.terminate()
for
p
in
processes
if
p.is_alive()])
model.fit(...,
callbacks
=
[batch_print_callback,
json_logging_callback,
cleanup_callback])
|
Keras的callback 一般在model.fit函数使用,由于Keras的便利性.有很多模型策略以及日志的策略. 。
比如 当loss不再变化时停止训练 。
keras.callbacks.EarlyStopping(monitor='val_loss', min_delta=0, patience=0, verbose=0, mode='auto', baseline=None, restore_best_weights=False) 。
比如日志传送远程服务器等,以及自适应的学习率scheduler. 。
确实很便利.... 。
补充知识:keras callbacks常用功能如ModelCheckpoint、ReduceLROnPlateau,EarlyStopping等 。
ModelCheckpoint
keras.callbacks.ModelCheckpoint(filepath,monitor='val_loss',verbose=0,save_best_only=False, save_weights_only=False, mode='auto', period=1) 。
参数:
filename:字符串,保存模型的路径(可以将模型的准确率和损失等写到路径中,格式如下:) 。
ModelCheckpoint('model_check/'+'ep{epoch:d}-acc{acc:.3f}-val_acc{val_acc:.3f}.h5',monitor='val_loss') 。
还可以添加损失值等如 。
‘loss{loss:.3f}-val_loss{val_loss:.3f}' 。
monitor:需要检测的值如测试集损失或者训练集损失等 。
save_best_only:当设置为True时,监测值有改进时才会保存当前的模型 。
verbose:信息展示模式,0或1(当为1时会有如下矩形框的信息提示) 。
mode:‘auto',‘min',‘max'之一,在save_best_only=True时决定性能最佳模型的评判准则,例如,当监测值为val_acc时,模式应为max,当监测值为val_loss时,模式应为min。在auto模式下,评价准则由被监测值的名字自动推断.
save_weights_only:若设置为True,则只保存模型权重,否则将保存整个模型 。
period:CheckPoint之间的间隔的epoch数 。
参考代码如下:
在使用时传递给fit中callbacks即可 。
1
2
3
4
5
6
7
8
9
10
|
checkpoint
=
ModelCheckpoint(log_dir
+
"ep{epoch:
03d
}
-
loss{loss:.
3f
}
-
val_loss{val_loss:.
3f
}.h5",
monitor
=
'val_loss'
, save_weights_only
=
True
,
save_best_only
=
True
, period
=
1
)
train_history
=
model.fit_generator(data_generator_wrap(),
steps_per_epoch
=
max
(
1
, num_train
/
/
batch_size),
validation_data
=
data_generator_wrap(),
validation_steps
=
max
(
1
, num_val
/
/
batch_size),
epochs
=
40
,
initial_epoch
=
0
,callbacks
=
[logging, reduce_lr,checkpoint])
|
ReduceLROnPlateau
keras.callbacks.ReduceLROnPlateau(monitor='val_loss', factor=0.1, patience=10, verbose=0, mode='auto', epsilon=0.0001, cooldown=0, min_lr=0) 。
当评价指标不在提升时,减少学习率 。
当学习停滞时,减少2倍或10倍的学习率常常能获得较好的效果。该回调函数检测指标的情况,如果在patience个epoch中看不到模型性能提升,则减少学习率 。
参数 。
monitor:被监测的量 。
factor:每次减少学习率的因子,学习率将以lr = lr*factor的形式被减少 。
patience:当patience个epoch过去而模型性能不提升时,学习率减少的动作会被触发 。
mode:‘auto',‘min',‘max'之一,在min模式下,如果检测值触发学习率减少。在max模式下,当检测值不再上升则触发学习率减少.
epsilon:阈值,用来确定是否进入检测值的“平原区” 。
cooldown:学习率减少后,会经过cooldown个epoch才重新进行正常操作 。
min_lr:学习率的下限 。
参考代码如下:
1
2
3
4
|
reduce_lr
=
ReduceLROnPlateau(monitor
=
'val_loss'
, factor
=
0.1
, patience
=
3
, verbose
=
1
)
train_history
=
model.fit(data(),validation_data
=
datae_g(),epochs
=
40
,callbacks
=
[logging, reduce_lr, checkpoint])
EarlyStopping
keras.callbacks.EarlyStopping(monitor
=
'val_loss'
, patience
=
0
, verbose
=
0
, mode
=
'auto'
)
|
当监测值不再改善时,该回调函数将中止训练 。
参数 。
monitor:需要监视的量 。
patience:当early stop被激活(如发现loss相比上一个epoch训练没有下降),则经过patience个epoch后停止训练.
verbose:信息展示模式 。
mode:‘auto',‘min',‘max'之一,在min模式下,如果检测值停止下降则中止训练。在max模式下,当检测值不再上升则停止训练.
以上这篇浅谈keras.callbacks设置模型保存策略就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持我.
原文链接:https://blog.csdn.net/dayuqi/article/details/85090353 。
最后此篇关于浅谈keras.callbacks设置模型保存策略的文章就讲到这里了,如果你想了解更多关于浅谈keras.callbacks设置模型保存策略的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
我有兴趣在 tf.keras 中训练一个模型,然后用 keras 加载它。我知道这不是高度建议,但我对使用 tf.keras 来训练模型很感兴趣,因为 tf.keras 更容易构建输入管道 我想利用
我进行了大量搜索,但仍然无法弄清楚如何编写具有多个交互输出的自定义损失函数。 我有一个神经网络定义为: def NeuralNetwork(): inLayer = Input((2,));
我正在阅读一篇名为 Differential Learning Rates 的文章在 Medium 上,想知道这是否可以应用于 Keras。我能够找到在 pytorch 中实现的这项技术。这可以在 K
我正在实现一个神经网络分类器,以打印我正在使用的这个神经网络的损失和准确性: score = model.evaluate(x_test, y_test, verbose=False) model.m
我最近在查看模型摘要时遇到了这个问题。 我想知道,[(None, 16)] 和有什么区别?和 (None, 16) ?为什么输入层有这样的输入形状? 来源:model.summary() can't
我正在尝试使用 Keras 创建自定义损失函数。我想根据输入计算损失函数并预测神经网络的输出。 我尝试在 Keras 中使用 customloss 函数。我认为 y_true 是我们为训练提供的输出,
我有一组样本,每个样本都是一组属性的序列(例如,一个样本可以包含 10 个序列,每个序列具有 5 个属性)。属性的数量总是固定的,但序列的数量(时间戳)可能因样本而异。我想使用这个样本集在 Keras
Keras 在训练集和测试集文件夹中发现了错误数量的类。我有 3 节课,但它一直说有 4 节课。有人可以帮我吗? 这里的代码: cnn = Sequential() cnn.add(Conv2D(32
我想编写一个自定义层,在其中我可以在两次运行之间将变量保存在内存中。例如, class MyLayer(Layer): def __init__(self, out_dim = 51, **kwarg
我添加了一个回调来降低学习速度: keras.callbacks.ReduceLROnPlateau(monitor='val_loss', factor=0.5, patience=100,
在 https://keras.io/layers/recurrent/我看到 LSTM 层有一个 kernel和一个 recurrent_kernel .它们的含义是什么?根据我的理解,我们需要 L
问题与标题相同。 我不想打开 Python,而是使用 MacOS 或 Ubuntu。 最佳答案 Python 库作者将版本号放入 .__version__ 。您可以通过在命令行上运行以下命令来打印它:
Keras 文档并不清楚这实际上是什么。我知道我们可以用它来将输入特征空间压缩成更小的空间。但从神经设计的角度来看,这是如何完成的呢?它是一个自动编码器,RBM吗? 最佳答案 据我所知,嵌入层是一个简
我想实现[http://ydwen.github.io/papers/WenECCV16.pdf]中解释的中心损失]在喀拉斯 我开始创建一个具有 2 个输出的网络,例如: inputs = Input
我正在尝试实现多对一模型,其中输入是大小为 的词向量d .我需要输出一个大小为 的向量d 在 LSTM 结束时。 在此 question ,提到使用(对于多对一模型) model = Sequenti
我有不平衡的训练数据集,这就是我构建自定义加权分类交叉熵损失函数的原因。但问题是我的验证集是平衡的,我想使用常规的分类交叉熵损失。那么我可以在 Keras 中为验证集传递不同的损失函数吗?我的意思是用
DL 中的一项常见任务是将输入样本归一化为零均值和单位方差。可以使用如下代码“手动”执行规范化: mean = np.mean(X, axis = 0) std = np.std(X, axis =
我正在尝试学习 Keras 并使用 LSTM 解决分类问题。我希望能够绘制 准确率和损失,并在训练期间更新图。为此,我正在使用 callback function . 由于某种原因,我在回调中收到的准
在 Keras 内置函数中嵌入使用哪种算法?Word2vec?手套?其他? https://keras.io/layers/embeddings/ 最佳答案 简短的回答是都不是。本质上,GloVe 的
我有一个使用 Keras 完全实现的 LSTM RNN,我想使用梯度剪裁,梯度范数限制为 5(我正在尝试复制一篇研究论文)。在实现神经网络方面,我是一个初学者,我将如何实现? 是否只是(我正在使用 r
我是一名优秀的程序员,十分优秀!