gpt4 book ai didi

machine-learning - 如何在Keras中实现自定义加权MSE损失函数?

转载 作者:行者123 更新时间:2023-11-30 09:30:49 24 4
gpt4 key购买 nike

我想为自动编码器使用自定义 MSE。我有自动编码器的输入(X)和输出(Y)图像,它们实际上是相同的图像。现在,在计算 MSE 期间,我们计算真实输出 (Y=X) 和预测输出图像 (Y') 之间的 MSE。

可以说,对于每个图像 X,我都有一个派生图像 X',它是该图像的权重矩阵。 X' 的大小与 X 或 Y 相同。它包含 0 到 1 之间的值。因此,在计算 MSE 期间,我想使用 X(也是 Y 和预期的重构输出)、X' 和预测输出 Y '。

如果有人能给我建议如何在 Keras 中实现它,我将非常感激。

最佳答案

你可以像这样制作一个损失层

class LossLayer(Layer):
def __init__(self, **kwargs):
super(LossLayer, self).__init__(**kwargs)

def build(self, input_shape):
super(LossLayer, self).build(input_shape) # Be sure to call this somewhere!

def call(self, x):
input_image, weighted_image, predicted = x
loss = weightedmse(input_image, weighted_image, predicted)
return loss

def dummy_loss(y_true, y_pred):
return tf.sqrt(tf.reduce_sum(y_pred))

构建模型时像这样使用它。

input_image = Input(...)
weighted_image = Input(...)
x = Conv2D(...)(input_image)
.
.
loss_layer = LossLayer()([input_image, weighted_image, x]) # x here is the last Conv layer

您的数据生成器必须在 __getitem___ 中返回类似的内容

[input_img, weighted], np.zeros((batch_size, 1))

编辑

定义上面的张量后,创建 2 个这样的模型

train_model = Model([input_image, weighted_image], loss_layer)
pridict_model = Model([input_image, weighted_image], x)
train_model.compile(optimizer='sgd', loss=dummy_loss)

关于machine-learning - 如何在Keras中实现自定义加权MSE损失函数?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58672006/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com