gpt4 book ai didi

python - 关于余弦相似度,损失函数和网络如何选择(我有两个方案)

转载 作者:行者123 更新时间:2023-12-04 03:56:42 54 4
gpt4 key购买 nike

对不起,我不知道,我不知道在哪里可以找到解决方案。我正在使用两个网络来构造两个嵌入,我有二进制目标来指示 embeddingA 和 embeddingB 是否“匹配”(1 或 -1)。像这样的数据集:

embA0 embB0 1.0
embA1 embB1 -1.0
embA2 embB2 1.0
...

希望利用余弦相似度来得到分类结果。但是在选择损失函数的时候感觉很迷茫,生成embeddings的两个网络是分开训练的,现在可以想到两个方案如下:

方案一:

构建第3个网络,将embeddingA和embeddingB作为nn.cosinesimilarity()的输入计算最终结果(应该是[-1,1]中的概率),然后选择一个二分类损失函数。

(抱歉,我不知道该选择哪个损失函数。)

class cos_Similarity(nn.Module):
def __init__(self):
super(cos_Similarity,self).__init__()
cos=nn.CosineSimilarity(dim=2)
embA=generator_A()
embB=generator_B()

def forward(self,a,b):
output_a=embA(a)
output_b=embB(b)
return cos(output_a,output_b)
loss_func=nn.CrossEntropyLoss()

y=cos_Similarity(a,b)
loss=loss_func(y,target)
acc=np.int64(y>0)

方案二:这两个Embeddings作为输出,然后使用nn.CosineEmbeddingLoss()作为损失函数,当我计算准确率时,我使用nn.Cosinesimilarity()输出结果([-1,1]中的概率)。

output_a=embA(a)
output_b=embB(b)

cos=nn.CosineSimilarity(dim=2)
loss_function = torch.nn.CosineEmbeddingLoss()

loss=loss_function(output_a,output_b,target)
acc=cos(output_a,output_b)

我真的需要帮助。我该如何选择?为什么?或者只能通过实验结果为我做出选择。非常感谢!

###############################添加


def train_func(train_loss_list):

train_data=load_data('train')
trainloader = DataLoader(train_data, batch_size=BATCH_SIZE)

cos_smi=nn.CosineSimilarity(dim=2)
train_loss = 0

for step,(a,b,target) in enumerate(trainloader):

try:
optimizer.zero_grad()

output_a = model_A(a) #generate embA
output_b = model_B(b) #generate embB

acc=cos_smi(output_a,output_b)

loss = loss_fn(output_a,output_b, target.unsqueeze(dim=1))

train_loss += loss.item()

loss.backward()

optimizer.step()

train_loss_list.append(loss)


if step%10==0:
print('train:',step,'step','loss:',loss,'acc',acc)


except Exception as e:
print('train:',step,'step')
print(repr(e))

return train_loss_list,train_loss/len(trainloader)

最佳答案

回应评论线程。

目标或管道似乎是:

  1. 接收两个嵌入向量(比如 A 和 B)。
  2. 检查这两个向量是否“相似”(使用余弦相似度)。
  3. 如果它们相似,则标签为 1,否则为 -1(我建议将其更改为 0 或 1,而不是 -1 和 1)。

我能想到的是以下几点。如果我误解了什么,请纠正我。免责声明是,我几乎是在不知道任何细节的情况下根据我的直觉编写代码,因此如果您尝试运行它可能会充满错误。让我们仍然尝试获得更高层次的理解。

型号

import torch
import torch.nn as nn


class Model(nn.Module):
def __init__(self, num_emb, emb_dim): # I'm assuming the embedding matrices are same sizes.
self.embedding1 = nn.Embedding(num_embeddings=num_emb, embedding_dim=emb_dim)
self.embedding2 = nn.Embedding(num_embeddings=num_emb, embedding_dim=emb_dim)
self.cosine = nn.CosineSimilarity()
self.sigmoid = nn.Sigmoid()

def forward(self, a, b):
output1 = self.embedding1(a)
output2 = self.embedding2(b)
similarity = self.cosine(output1, output2)
output = self.sigmoid(similarity)

return output

训练/评估

model = Model(num_emb, emb_dim)

if torch.cuda.is_available():
model = model.to('cuda')

model.train()

criterion = loss_function()
optimizer = some_optimizer()

for epoch in range(num_epochs):
epoch_loss = 0
for batch in train_loader:
optimizer.zero_grad()

a, b, label = batch

if torch.cuda.is_available():
a = a.to('cuda')
b = b.to('cuda')
label = label.to('cuda')

output = model(a, b)

loss = criterion(output, label)
loss.backward()
optimizer.step()

epoch_loss += loss.cpu().item()

print("Epoch %d \t Loss %.6f" % epoch, epoch_loss)

我省略了一些细节(例如,超参数值、损失函数和优化器等)。这个整体过程是否与您正在寻找的 OP 相似?

关于python - 关于余弦相似度,损失函数和网络如何选择(我有两个方案),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63750215/

54 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com