gpt4 book ai didi

conv-neural-network - keras 在每个时代都造成相同的损失

转载 作者:行者123 更新时间:2023-12-04 08:13:47 34 4
gpt4 key购买 nike

我是 keras 的新手。

我在一个数据集上运行它,我的目标是减少 logloss。
对于每个时代,它都给我相同的损失值。我很困惑我是否在正确的轨道上。

例如:

Epoch 1/5
91456/91456 [==============================] - 142s - loss: 3.8019 - val_loss: 3.8278
Epoch 2/5
91456/91456 [==============================] - 139s - loss: 3.8019 - val_loss: 3.8278
Epoch 3/5
91456/91456 [==============================] - 143s - loss: 3.8019 - val_loss: 3.8278
Epoch 4/5
91456/91456 [==============================] - 142s - loss: 3.8019 - val_loss: 3.8278
Epoch 5/5
91456/91456 [==============================] - 142s - loss: 3.8019 - val_loss: 3.8278

这里 3.8019 在每个时期都是相同的。应该是少了。

最佳答案

我也遇到了这个问题。想了想,才知道是我的我的输出层上的激活函数 .

我有这个模型来预测二元结果:

model = Sequential()
model.add(Dense(16,input_shape=(8,),activation='relu'))
model.add(Dense(32,activation='relu'))
model.add(Dense(32,activation='relu'))
model.add(Dense(1, activation='softmax'))

我需要这个用于二元交叉熵
model = Sequential()
model.add(Dense(16,input_shape=(8,),activation='relu'))
model.add(Dense(32,activation='relu'))
model.add(Dense(32,activation='relu'))
model.add(Dense(1, activation='sigmoid'))

我会着眼于您正在尝试解决的问题以及确保您的激活函数是他们需要的输出所需的输出。

关于conv-neural-network - keras 在每个时代都造成相同的损失,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35540269/

34 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com