gpt4 book ai didi

machine-learning - 第一个纪元后过度拟合

转载 作者:行者123 更新时间:2023-11-30 08:25:54 24 4
gpt4 key购买 nike

我使用卷积神经网络(通过 Keras)作为面部表情识别模型(55 个受试者)。我的数据集非常难,大约 450k,有 7 个类。我已经平衡了每个主题和每个类别标签的训练集。

我实现了一个非常简单的 CNN 架构(具有实时数据增强):

model = Sequential()
model.add(Convolution2D(32, 3, 3, border_mode=borderMode, init=initialization, input_shape=(48, 48, 3)))
model.add(BatchNormalization())
model.add(PReLU())
model.add(MaxPooling2D(pool_size=(2, 2)))

model.add(Flatten())
model.add(Dense(256))
model.add(BatchNormalization())
model.add(PReLU())
model.add(Dropout(0.5))

model.add(Dense(nb_output))
model.add(Activation('softmax'))

在第一个时期之后,我的训练损失不断减少,而验证损失却增加。过拟合会这么快发生吗?还是我的数据有困惑的问题?我还应该平衡我的测试集吗?

最佳答案

该任务可能很容易解决,并且在一个时期之后,模型已经学到了足够的知识来解决它,而训练更多时期只会增加过度拟合。

但是,如果您平衡了训练集而不是测试集,则可能会发生的情况是您正在训练一项任务(均匀分布数据上的表达识别),然后您正在测试一项略有不同的任务,因为测试集不平衡。

关于machine-learning - 第一个纪元后过度拟合,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39944720/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com