gpt4 book ai didi

python - 在不重置权重的情况下将正则化器添加到已训练模型的现有层中?

转载 作者:行者123 更新时间:2023-12-04 14:23:08 28 4
gpt4 key购买 nike

假设我正在通过Inception转移学习。我添加了一些图层并对其进行了一段时间的训练。

这是我的模型拓扑图:

base_model = InceptionV3(weights='imagenet', include_top=False)
x = base_model.output
x = GlobalAveragePooling2D()(x)
x = Dense(1024, activation='relu', name = 'Dense_1')(x)
predictions = Dense(12, activation='softmax', name = 'Predictions')(x)
model = Model(input=base_model.input, output=predictions)

我训练了一段时间,然后保存并再次加载以进行重新训练。这次我想在不重新设置权重的情况下向 Dense_1添加l2-regularizer吗?这可能吗?
path = .\model.hdf5
from keras.models import load_model
model = load_model(path)

该文档仅显示初始化层时可以将正则化器添加为参数:
from keras import regularizers
model.add(Dense(64, input_dim=64,
kernel_regularizer=regularizers.l2(0.01),
activity_regularizer=regularizers.l1(0.01)))

这实际上是在创建一个新图层,因此将重置我图层的权重。

编辑:

因此,过去几天我一直在处理代码,在我加载模型时(使用新的正则化工具进行了一些训练之后),丢失我的东西会发生一些奇怪的事情。

因此,我第一次运行此代码(第一次使用新的正则化程序):
from keras.models import load_model
base_model = load_model(path)
x = base_model.get_layer('dense_1').output
predictions = base_model.get_layer('dense_2')(x)
model = Model(inputs = base_model.input, output = predictions)
model.get_layer('dense_1').kernel_regularizer = regularizers.l2(0.02)

model.compile(optimizer=SGD(lr= .0001, momentum=0.90),
loss='categorical_crossentropy',
metrics = ['accuracy'])

我的训练输出似乎是正常的:
Epoch 43/50
- 2918s - loss: 0.3834 - acc: 0.8861 - val_loss: 0.4253 - val_acc: 0.8723
Epoch 44/50
Epoch 00044: saving model to E:\Keras Models\testing_3\2018-01-18_44.hdf5
- 2692s - loss: 0.3781 - acc: 0.8869 - val_loss: 0.4217 - val_acc: 0.8729
Epoch 45/50
- 2690s - loss: 0.3724 - acc: 0.8884 - val_loss: 0.4169 - val_acc: 0.8748
Epoch 46/50
Epoch 00046: saving model to E:\Keras Models\testing_3\2018-01-18_46.hdf5
- 2684s - loss: 0.3688 - acc: 0.8896 - val_loss: 0.4137 - val_acc: 0.8748
Epoch 47/50
- 2665s - loss: 0.3626 - acc: 0.8908 - val_loss: 0.4097 - val_acc: 0.8763
Epoch 48/50
Epoch 00048: saving model to E:\Keras Models\testing_3\2018-01-18_48.hdf5
- 2681s - loss: 0.3586 - acc: 0.8924 - val_loss: 0.4069 - val_acc: 0.8767
Epoch 49/50
- 2679s - loss: 0.3549 - acc: 0.8930 - val_loss: 0.4031 - val_acc: 0.8776
Epoch 50/50
Epoch 00050: saving model to E:\Keras Models\testing_3\2018-01-18_50.hdf5
- 2680s - loss: 0.3493 - acc: 0.8950 - val_loss: 0.4004 - val_acc: 0.8787

但是,如果我尝试在此小型训练 session 之后加载模型(我将从纪元00050加载模型,那么应该已经实现了新的正则化器值,那么我得到的损失值确实很高)

代码:
path = r'E:\Keras Models\testing_3\2018-01-18_50.hdf5' #50th epoch model

from keras.models import load_model
model = load_model(path)
model.compile(optimizer=SGD(lr= .0001, momentum=0.90),
loss='categorical_crossentropy',
metrics = ['accuracy'])

返回:
Epoch 51/65
- 3130s - loss: 14.0017 - acc: 0.8953 - val_loss: 13.9529 - val_acc: 0.8800
Epoch 52/65
Epoch 00052: saving model to E:\Keras Models\testing_3\2018-01-20_52.hdf5
- 2813s - loss: 13.8017 - acc: 0.8969 - val_loss: 13.7553 - val_acc: 0.8812
Epoch 53/65
- 2759s - loss: 13.6070 - acc: 0.8977 - val_loss: 13.5609 - val_acc: 0.8824
Epoch 54/65
Epoch 00054: saving model to E:\Keras Models\testing_3\2018-01-20_54.hdf5
- 2748s - loss: 13.4115 - acc: 0.8992 - val_loss: 13.3697 - val_acc: 0.8824
Epoch 55/65
- 2745s - loss: 13.2217 - acc: 0.9006 - val_loss: 13.1807 - val_acc: 0.8840
Epoch 56/65
Epoch 00056: saving model to E:\Keras Models\testing_3\2018-01-20_56.hdf5
- 2752s - loss: 13.0335 - acc: 0.9014 - val_loss: 12.9951 - val_acc: 0.8840
Epoch 57/65
- 2756s - loss: 12.8490 - acc: 0.9023 - val_loss: 12.8118 - val_acc: 0.8849
Epoch 58/65
Epoch 00058: saving model to E:\Keras Models\testing_3\2018-01-20_58.hdf5
- 2749s - loss: 12.6671 - acc: 0.9032 - val_loss: 12.6308 - val_acc: 0.8849
Epoch 59/65
- 2738s - loss: 12.4871 - acc: 0.9039 - val_loss: 12.4537 - val_acc: 0.8855
Epoch 60/65
Epoch 00060: saving model to E:\Keras Models\testing_3\2018-01-20_60.hdf5
- 2765s - loss: 12.3086 - acc: 0.9059 - val_loss: 12.2778 - val_acc: 0.8868
Epoch 61/65
- 2767s - loss: 12.1353 - acc: 0.9065 - val_loss: 12.1055 - val_acc: 0.8867
Epoch 62/65
Epoch 00062: saving model to E:\Keras Models\testing_3\2018-01-20_62.hdf5
- 2757s - loss: 11.9637 - acc: 0.9061 - val_loss: 11.9351 - val_acc: 0.8883

请注意, loss的值确实很高。这正常吗?我知道l2正则化器会增加损失(如果有很大的权重),但是这不会反射(reflect)在第一个小型训练类(class)中(我第一次在其中实现正则化器吗?)。准确性似乎保持一致。

谢谢你。

最佳答案

Marcin的解决方案对我不起作用。如apatsekin所述,如果在将正则化器添加为Marcin建议后打印layer.losses,您将得到一个空列表。

我找到了一个我完全不喜欢的解决方法,但是我在这里发布,以便更有能力的人可以找到一种更简单的方法来执行此操作。

我相信它适用于大多数keras.application网络。我将特定体系结构的.py文件从Github中的keras-application复制(例如InceptionResNetV2)复制到了我的机器中的本地文件regularizedNetwork.py中。我必须对其进行编辑以修复一些相对的导入,例如:

#old version
from . import imagenet_utils
from .imagenet_utils import decode_predictions
from .imagenet_utils import _obtain_input_shape

backend = None
layers = None
models = None
keras_utils = None

至:

#new version
from keras import backend
from keras import layers
from keras import models
from keras import utils as keras_utils

from keras.applications import imagenet_utils
from keras.applications.imagenet_utils import decode_predictions
from keras.applications.imagenet_utils import _obtain_input_shape

解决了相对路径和导入问题后,就像在定义新的未经训练的网络时所做的那样,我在每个所需的层中添加了正则化器。通常,在定义架构之后, keras.application中的模型将加载预训练的权重。

现在,在您的主要代码/笔记本中,只需导入新的 regularizedNetwork.py并调用main方法即可实例化网络。

#main code
from regularizedNetwork import InceptionResNetV2

正则化器应该全部设置好,您可以正常地微调正则化模型。

我敢肯定,这样做的方法比较花哨,因此,如果有人找到了,请写一个新的答案和/或对此答案发表评论。

仅作记录,我还尝试从 keras.application实例化该模型,使用 regModel = model.get_config()获取其体系结构,按照 Marcin的建议添加正则化器,然后使用 regModel.set_weights(model.get_weights())加载权重,但是仍然无法正常工作。

编辑:拼写错误。

关于python - 在不重置权重的情况下将正则化器添加到已训练模型的现有层中?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48330137/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com