- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一个关于如何计算 Keras 多重输出中的 val_loss 的问题。这是我的代码的摘录。
nBatchSize = 200
nTimeSteps = 1
nInDims = 17
nHiddenDims = 10
nFinalDims = 10
nOutNum = 24
nTraLen = 300
nMaxEP = 20
nValLen = 50
sHisCSV = "history.csv"
oModel = Sequential()
oModel.add(Input(batch_input_shape=(nBatchSize, nTimeSteps, nInDims)))
oModel.add(LSTM(nHiddenDims, return_sequences=True, stateful=True))
oModel.add(LSTM(nHiddenDims, return_sequences=False, stateful=True))
oModel.add(Dense(nFinalDims, activation="relu")
oModel.add(Dense(nOutNum, activation="linear")
oModel.compile(loss="mse", optimizer=Nadam())
oModel.reset_states()
oHis = oModel.fit_generator(oDataGen, steps_per_epoch=nTraLen,
epochs=nMaxEP, shuffle=False,
validation_data=oDataGen, validation_steps=nValLen,
callbacks=[CSVLogger(sHisCSV, append=True)])
# number of cols is nOutNum(=24), number of rows is len(oEvaGen)
oPredDF = pd.DataFrame(oPredModel.predict_generator(oEvaGen, steps=len(oEvaGen))
# GTDF is a dataframe of Ground Truth
nRMSE = np.sqrt(np.nanmean(np.array(np.power(oPredDF - oGTDF, 2))))
history.csv中写入了val_loss,写为3317.36。预测结果计算出的RMSE为66.4。
根据我对 Keras 规范的理解,val_loss 写在history.csv 中是 24 个输出的平均 MSE。假设它是正确的,则可以从history.csv计算出RMSE为11.76(= sqrt(3317.36/24)),这与 nRMSE 的值 (=66.4) 有很大不同正如 sqrt(3317.36) = 57.6 相当接近它一样。
我对 Keras val_loss 规范的理解是否不正确?
最佳答案
你的第一个假设是正确的,但进一步的推导有点错误。
作为MSE 是模型输出平方误差的平均值,正如您在 Keras documentation 中看到的那样:
mean_squared_error
keras.losses.mean_squared_error(y_true, y_pred)
在 Keras 源代码中:
K.mean(K.square(y_pred - y_true), axis=-1)
因此 RMSE 是该值的平方根:
K.sqrt(K.mean(K.square(y_pred - y_true), axis=-1))
你写的将是平方误差的平方根,即RSE。
所以从你的实际例子来看:
RSE 计算公式为 sqrt(3317.36/24) = 11.76
RMSE 计算公式为 sqrt(3317.36) = 57.6
因此模型提供的 RMSE(和 nRMSE)值是正确的。
关于python - Keras的多重输出中val_loss的计算,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53607755/
我在下面的类(class)中尝试获取包含每次训练的损失和验证损失的元组列表 class LossHistory(keras.callbacks.Callback): def on_train_
我是 tensorflow 新手,我正在尝试通过 github 中的示例来学习它,现在我找到了一个示例,但损失和 val_loss 的结果大于“1”(您可以在下面看到结果在 800 之间)和 700
我有一个简单的问题突然让我怀疑我的工作。 如果我只有训练和验证集,我是否可以在训练时监控 val_loss,或者这会增加我的训练偏差。我想在验证集训练结束时测试我的准确性,但突然我在想,如果我在训练时
当我在自定义回调中手动计算验证损失时,结果与使用 L2 内核正则化时 keras 报告的结果不同。 示例代码: class ValidationCallback(Callback): def
(使用 keras)训练模型时,val_loss(如 keras 训练日志中所示)/epoch_loss(如张量板中所示)指标是什么测量模型何时有多个输出?如果这很重要,那么这些输出是否也被加权了?
我是 Keras 新手,我正在使用它构建一个普通的神经网络来对数字 MNIST 数据集进行分类。 事先我已经将数据分为 3 部分:55000 个用于训练,5000 个用于评估,10000 个用于测试,
我根据此处讨论的内容为 mnist 数据集设置了一个去噪自动编码器: https://blog.keras.io/building-autoencoders-in-keras.html 我正在尝试查看
训练开始时,运行窗口中只显示loss和acc,缺少val_loss和val_acc。只有在最后,才会显示这些值。 model.add(Flatten()) model.add(Dense(512, a
我正在训练 Keras(Tensorflow 后端,Python,在 MacBook 上),并且在 fit_generator 函数的提前停止回调中遇到错误。错误如下: RuntimeWarning:
我正在尝试建立一个 LSTM 模型来预测股票第二天是上涨还是下跌。如您所见,一个简单的分类任务让我卡住了几天。我只选择 3 个特征来输入我的网络,下面我展示了我的预处理: # pre-processi
我正在尝试对图像进行分类,无论它们是猫、狗还是 Pandas 。数据包含所有图像(猫 + 狗 + Pandas ),标签包含它们的标签,但不知何故,当我将数据拟合到模型时,val_loss 和 val
我正在尝试对图像进行分类,无论它们是猫、狗还是 Pandas 。数据包含所有图像(猫 + 狗 + Pandas ),标签包含它们的标签,但不知何故,当我将数据拟合到模型时,val_loss 和 val
我正在用keras训练模型,并且在fit_generator函数的回调中遇到错误。我总是跑到纪元3rd并收到此错误 annotation_path = 'train2.txt' log_dir
我正在训练神经网络并得到以下输出。 loss 和 val_loss 都在减少,这让我很高兴。然而,val_acc 保持不变。这能有什么原因呢?我的数据非常不平衡,但我通过 sklearn comput
就像这样: x = keras.layers.Input(shape=(3,)) y = keras.layers.Dense(5)(x) G = keras.models.Model(x, y,na
我在 Keras 中记录“val_loss”和“val_acc”时遇到问题。 'loss' 和 'acc' 很容易,因为它们总是记录在 model.fit 的历史记录中。 如果在 fit 中启用验证,
我正在尝试使用带有 tensorflow 后端的 keras 自定义 resnet50。然而,在训练后,我的 val_loss 不断增加。尝试不同的学习率和批量大小并不能解决问题。 使用不同的预处理方
我实现了一个数据生成器,将我的训练数据分成 256 个小批量,以避免内存错误。它在训练数据上运行,但在每个时期结束时不显示验证损失和验证准确性。我还将数据生成器应用于验证数据并定义了验证步骤。我不知道
我创建了一个用于序列分类(二进制)的 LSTM 网络,其中每个样本有 25 个时间步长和 4 个特征。以下是我的keras网络拓扑: 上图,Dense层之后的激活层使用了softmax函数。我使用 b
我是 Keras 的新手,对如何理解我的模型结果有一些疑问。这是我的结果:(为方便起见,我只在每个 epoch 之后粘贴 loss acc val_loss val_acc) 对 4160 个样本进行
我是一名优秀的程序员,十分优秀!