gpt4 book ai didi

浅谈keras.callbacks设置模型保存策略

转载 作者:qq735679552 更新时间:2022-09-29 22:32:09 26 4
gpt4 key购买 nike

CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.

这篇CFSDN的博客文章浅谈keras.callbacks设置模型保存策略由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.

如下所示:

keras.callbacks.ModelCheckpoint(self.checkpoint_path, verbose=0, save_weights_only=True,mode="max",save_best_only=True).

默认是每一次poch,但是这样硬盘空间很快就会被耗光. 。

将save_best_only 设置为True使其只保存最好的模型,值得一提的是其记录的acc是来自于一个monitor_op,其默认为"val_loss",其实现是取self.best为 -np.Inf. 所以,第一次的训练结果总是被保存. 。

mode模式自动为auto 和 max一样,还有一个min的选项...应该是loss没有负号的时候用的.... 。

https://keras.io/callbacks/ 浏览上面的文档. 。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
# Print the batch number at the beginning of every batch.
batch_print_callback = LambdaCallback(
  on_batch_begin = lambda batch,logs: print (batch))
 
# Stream the epoch loss to a file in JSON format. The file content
# is not well-formed JSON but rather has a JSON object per line.
import json
json_log = open ( 'loss_log.json' , mode = 'wt' , buffering = 1 )
json_logging_callback = LambdaCallback(
  on_epoch_end = lambda epoch, logs: json_log.write(
  json.dumps({ 'epoch' : epoch, 'loss' : logs[ 'loss' ]}) + '\n' ),
  on_train_end = lambda logs: json_log.close()
)
 
# Terminate some processes after having finished model training.
processes = ...
cleanup_callback = LambdaCallback(
  on_train_end = lambda logs: [
  p.terminate() for p in processes if p.is_alive()])
 
model.fit(...,
   callbacks = [batch_print_callback,
    json_logging_callback,
    cleanup_callback])

Keras的callback 一般在model.fit函数使用,由于Keras的便利性.有很多模型策略以及日志的策略. 。

比如 当loss不再变化时停止训练 。

keras.callbacks.EarlyStopping(monitor='val_loss', min_delta=0, patience=0, verbose=0, mode='auto', baseline=None, restore_best_weights=False) 。

比如日志传送远程服务器等,以及自适应的学习率scheduler. 。

确实很便利.... 。

补充知识:keras callbacks常用功能如ModelCheckpoint、ReduceLROnPlateau,EarlyStopping等 。

ModelCheckpoint

keras.callbacks.ModelCheckpoint(filepath,monitor='val_loss',verbose=0,save_best_only=False, save_weights_only=False, mode='auto', period=1) 。

参数:

filename:字符串,保存模型的路径(可以将模型的准确率和损失等写到路径中,格式如下:) 。

ModelCheckpoint('model_check/'+'ep{epoch:d}-acc{acc:.3f}-val_acc{val_acc:.3f}.h5',monitor='val_loss') 。

还可以添加损失值等如 。

‘loss{loss:.3f}-val_loss{val_loss:.3f}' 。

monitor:需要检测的值如测试集损失或者训练集损失等 。

save_best_only:当设置为True时,监测值有改进时才会保存当前的模型 。

verbose:信息展示模式,0或1(当为1时会有如下矩形框的信息提示) 。

浅谈keras.callbacks设置模型保存策略

mode:‘auto',‘min',‘max'之一,在save_best_only=True时决定性能最佳模型的评判准则,例如,当监测值为val_acc时,模式应为max,当监测值为val_loss时,模式应为min。在auto模式下,评价准则由被监测值的名字自动推断.

save_weights_only:若设置为True,则只保存模型权重,否则将保存整个模型 。

period:CheckPoint之间的间隔的epoch数 。

参考代码如下:

在使用时传递给fit中callbacks即可 。

?
1
2
3
4
5
6
7
8
9
10
checkpoint = ModelCheckpoint(log_dir + "ep{epoch: 03d } - loss{loss:. 3f } -
         val_loss{val_loss:. 3f }.h5",
         monitor = 'val_loss' , save_weights_only = True ,
         save_best_only = True , period = 1 )
train_history = model.fit_generator(data_generator_wrap(),
          steps_per_epoch = max ( 1 , num_train / / batch_size),
         validation_data = data_generator_wrap(),
         validation_steps = max ( 1 , num_val / / batch_size),
         epochs = 40 ,
         initial_epoch = 0 ,callbacks = [logging, reduce_lr,checkpoint])

ReduceLROnPlateau

keras.callbacks.ReduceLROnPlateau(monitor='val_loss', factor=0.1, patience=10, verbose=0, mode='auto', epsilon=0.0001, cooldown=0, min_lr=0) 。

当评价指标不在提升时,减少学习率 。

当学习停滞时,减少2倍或10倍的学习率常常能获得较好的效果。该回调函数检测指标的情况,如果在patience个epoch中看不到模型性能提升,则减少学习率 。

参数 。

monitor:被监测的量 。

factor:每次减少学习率的因子,学习率将以lr = lr*factor的形式被减少 。

patience:当patience个epoch过去而模型性能不提升时,学习率减少的动作会被触发 。

mode:‘auto',‘min',‘max'之一,在min模式下,如果检测值触发学习率减少。在max模式下,当检测值不再上升则触发学习率减少.

epsilon:阈值,用来确定是否进入检测值的“平原区” 。

cooldown:学习率减少后,会经过cooldown个epoch才重新进行正常操作 。

min_lr:学习率的下限 。

参考代码如下:

?
1
2
3
4
reduce_lr = ReduceLROnPlateau(monitor = 'val_loss' , factor = 0.1 , patience = 3 , verbose = 1 )
train_history = model.fit(data(),validation_data = datae_g(),epochs = 40 ,callbacks = [logging, reduce_lr, checkpoint])
EarlyStopping
keras.callbacks.EarlyStopping(monitor = 'val_loss' , patience = 0 , verbose = 0 , mode = 'auto' )

当监测值不再改善时,该回调函数将中止训练 。

参数 。

monitor:需要监视的量 。

patience:当early stop被激活(如发现loss相比上一个epoch训练没有下降),则经过patience个epoch后停止训练.

verbose:信息展示模式 。

mode:‘auto',‘min',‘max'之一,在min模式下,如果检测值停止下降则中止训练。在max模式下,当检测值不再上升则停止训练.

以上这篇浅谈keras.callbacks设置模型保存策略就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持我.

原文链接:https://blog.csdn.net/dayuqi/article/details/85090353 。

最后此篇关于浅谈keras.callbacks设置模型保存策略的文章就讲到这里了,如果你想了解更多关于浅谈keras.callbacks设置模型保存策略的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com