- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
据我所知 Triplet Loss
是一个损失函数,它减少了 anchor 和正之间的距离,但减少了 anchor 和负之间的距离。此外,还添加了一个边距。
例如,让我们假设:一个 Siamese Network
,这给出了嵌入:
anchor_output = [1,2,3,4,5...] # embedding given by the CNN model
positive_output = [1,2,3,4,4...]
negative_output= [53,43,33,23,13...]
而且我认为我可以获得三重损失,例如:(我认为我必须使用 Lambda 层左右将其作为损失)
# calculate triplet loss
d_pos = tf.reduce_sum(tf.square(anchor_output - positive_output), 1)
d_neg = tf.reduce_sum(tf.square(anchor_output - negative_output), 1)
loss = tf.maximum(0., margin + d_pos - d_neg)
loss = tf.reduce_mean(loss)
那么到底是什么:
Siamese Techniques
的数据生成技术类型。这插入模型学习更多。
27
图片 B
B
HardTripletLoss
每批仅考虑具有
的那 3 张图像最大 anchor 定正距离和
最低 anchor 定 - 负距离。
Semi Hard
,我认为它丢弃了距离为 0 的每个图像对计算的所有损失。
model.complie()
中使用它,但我的问题是不同的。
最佳答案
什么是TripletHardLoss
?
此亏跟普通TripletLoss
形式,但在计算损失时使用最大正距离和最小负距离加上批次内的边际常数,如我们在公式中所见:
调查source code的 tfa.losses.TripletHardLoss
我们可以看到上面的公式已经完全实现了:
# Build pairwise binary adjacency matrix.
adjacency = tf.math.equal(labels, tf.transpose(labels))
# Invert so we can select negatives only.
adjacency_not = tf.math.logical_not(adjacency)
adjacency_not = tf.cast(adjacency_not, dtype=tf.dtypes.float32)
# hard negatives: smallest D_an.
hard_negatives = _masked_minimum(pdist_matrix, adjacency_not)
batch_size = tf.size(labels)
adjacency = tf.cast(adjacency, dtype=tf.dtypes.float32)
mask_positives = tf.cast(adjacency, dtype=tf.dtypes.float32) - tf.linalg.diag(
tf.ones([batch_size])
)
# hard positives: largest D_ap.
hard_positives = _masked_maximum(pdist_matrix, mask_positives)
if soft:
triplet_loss = tf.math.log1p(tf.math.exp(hard_positives - hard_negatives))
else:
triplet_loss = tf.maximum(hard_positives - hard_negatives + margin, 0.0)
# Get final mean triplet loss
triplet_loss = tf.reduce_mean(triplet_loss)
请注意
soft
tfa.losses.TripletHardLoss
中的参数是
不是 使用以下公式计算普通
TripletLoss
:
TripletSemiHardLoss
?
TripletLoss
形式,正距离与普通
TripletLoss
相同和负距离使用
半硬负 :
Minimum negative distance among which are at least greater than thepositive distance plus the margin constant, if no such negativeexists, uses the largest negative distance instead.
p
为正和
n
对于负数,如果 wan 找不到满足此条件的负距离,则我们使用最大负距离代替。
tfa.losses.TripletSemiHardLoss
, 其中
negatives_outside
是满足这个条件的距离和
negatives_inside
是最大的负距离:
# Build pairwise binary adjacency matrix.
adjacency = tf.math.equal(labels, tf.transpose(labels))
# Invert so we can select negatives only.
adjacency_not = tf.math.logical_not(adjacency)
batch_size = tf.size(labels)
# Compute the mask.
pdist_matrix_tile = tf.tile(pdist_matrix, [batch_size, 1])
mask = tf.math.logical_and(
tf.tile(adjacency_not, [batch_size, 1]),
tf.math.greater(
pdist_matrix_tile, tf.reshape(tf.transpose(pdist_matrix), [-1, 1])
),
)
mask_final = tf.reshape(
tf.math.greater(
tf.math.reduce_sum(
tf.cast(mask, dtype=tf.dtypes.float32), 1, keepdims=True
),
0.0,
),
[batch_size, batch_size],
)
mask_final = tf.transpose(mask_final)
adjacency_not = tf.cast(adjacency_not, dtype=tf.dtypes.float32)
mask = tf.cast(mask, dtype=tf.dtypes.float32)
# negatives_outside: smallest D_an where D_an > D_ap.
negatives_outside = tf.reshape(
_masked_minimum(pdist_matrix_tile, mask), [batch_size, batch_size]
)
negatives_outside = tf.transpose(negatives_outside)
# negatives_inside: largest D_an.
negatives_inside = tf.tile(
_masked_maximum(pdist_matrix, adjacency_not), [1, batch_size]
)
semi_hard_negatives = tf.where(mask_final, negatives_outside, negatives_inside)
loss_mat = tf.math.add(margin, pdist_matrix - semi_hard_negatives)
mask_positives = tf.cast(adjacency, dtype=tf.dtypes.float32) - tf.linalg.diag(
tf.ones([batch_size])
)
# In lifted-struct, the authors multiply 0.5 for upper triangular
# in semihard, they take all positive pairs except the diagonal.
num_positives = tf.math.reduce_sum(mask_positives)
triplet_loss = tf.math.truediv(
tf.math.reduce_sum(
tf.math.maximum(tf.math.multiply(loss_mat, mask_positives), 0.0)
),
num_positives,
)
那些损失怎么用?
y_true
提供为一维整数
Tensor
具有形状 [batch_size] 的多类整数标签。和嵌入
y_pred
必须是二维浮点数
Tensor
l2个归一化嵌入向量。
import tensorflow as tf
import tensorflow_addons as tfa
import tensorflow_datasets as tfds
def _normalize_img(img, label):
img = tf.cast(img, tf.float32) / 255.
return (img, label)
train_dataset, test_dataset = tfds.load(name="mnist", split=['train', 'test'], as_supervised=True)
# Build your input pipelines
train_dataset = train_dataset.shuffle(1024).batch(16)
train_dataset = train_dataset.map(_normalize_img)
# Take one batch of data
for data in train_dataset.take(1):
print("Batch of images shape:\n{}\nBatch of labels:\n{}\n".format(data[0].shape, data[1]))
输出:
Batch of images shape:
(16, 28, 28, 1)
Batch of labels:
[8 4 0 3 2 4 5 1 0 5 7 0 2 6 4 9]
关注此
official tutorial about how to using TripletSemiHardLoss
( TripletHardLoss
as well) in general如果您在使用时遇到问题。
关于tensorflow - Tensorflow 的TripletSemiHardLoss 和TripletHardLoss 是如何实现的,如何与Siamese Network 一起使用?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/65579247/
大家,早安 下面是我对 pytorch siamese 网络的实现。我使用 32 批量大小、MSE 损失和 SGD 以 0.9 动量作为优化器。 class SiameseCNN(nn.Module)
我对机器学习非常陌生,我开始实现一个 Siamese 网络来检查手写数字的相似度,使用 MNIST 数据集进行训练,但我遇到了严重的损失问题。 网络模型 import keras from keras
我正在尝试使用 Keras 训练 Siamese 神经网络,目标是识别 2 张图像是否属于同一类。我的数据被打乱并且有相同数量的正面例子和负面例子。我的模型没有学习任何东西,它总是预测相同的输出。我每
目前,我正在尝试使用 Tensorflow 实现论文中的实验:Siamese Neural Networks for One-shot Image Recognition。 图像集是 Omniglot
我正在尝试使用 Keras 的 Siamese层与共享 Convolution2D 一起使用层。 我不需要输入在 Siamese 之前通过任何其他层层但Siamese layer 要求指定输入层。我不
我需要一些帮助才能从带有图像和标签文本文件的普通目录中为 siamese CNN 创建 CaffeDB。最好是用 python 的方式来做到这一点。 问题不是遍历目录并制作成对的图像。我的问题更多是从
我正在尝试实现一个 Siamese 网络,如 paper 中所示 在本文中,他们使用交叉熵作为损失函数 我正在使用 STL-10 数据集进行训练,而不是论文中使用的 3 层网络,我将其替换为 VGG-
我想比较以下类型的 CNN 对于两个不同的大型图像数据集的性能。目标是测量两幅图像之间的相似性,这两幅图像在训练期间都没有出现过。我可以使用 2 个 GPU 和 16 个 CPU 内核。 Triple
我目前正在尝试在 Keras 中实现 siamese-net,我必须在其中实现以下损失函数: loss(p ∥ q) = Is · KL(p ∥ q) + Ids · HL(p ∥ q) detail
我正在使用 Keras 为 224x224x3 大小的图像开发用于人脸识别的连体网络。 Siamese 网络的架构是这样的: 对于 CNN 模型,我正在考虑使用已经在 Keras.applicatio
所以我正在尝试实现 this关于 Siamese 神经网络的论文:Sumit Chopra、Raia Hadsell 和 Yann LeCun(2005 年)的论文:有区别地学习相似性度量,并应用于人
我正在尝试在 Siamese 神经网络中使用基于余弦的相似性,以下是我的尝试 输入和标签 EXAMPLES=10000 FEATURES=30 LEFT=np.random.random((EXAMP
我正在尝试建立一个 Siamese 神经网络和 triple neural network在自定义大数据集上 Keras有 ImageDataGenerator这使得输入数据的生成为 regular神
我已经成功使用 LeNet 模型来使用 Siamese Network 训练我自己的数据集 tutorial 。现在我想使用 AlexNet,因为我相信它比 LeNet 更强大。有人可以提供在暹罗网络
我是一名优秀的程序员,十分优秀!