gpt4 book ai didi

python - F.relu(X) 和 torch.max(X, 0) 之间的区别

转载 作者:行者123 更新时间:2023-11-30 08:48:22 25 4
gpt4 key购买 nike

我正在尝试实现以下loss function

enter image description here

对我来说,最直接的前言实现是使用 torch.max

losses = torch.max(ap_distances - an_distances + margin, torch.Tensor([0]))

但是,我看到了其他implementations on github使用F.relu

losses = F.relu(ap_distances - an_distances + margin)

它们提供基本相同的输出,但我想知道这两种方法之间是否有任何根本区别。

最佳答案

torch.max 根据此不可微分 discussion 。损失函数需要连续且可微才能进行反向传播。 relu 是可微分的,因为它可以被近似,因此可以在损失函数中使用它。

关于python - F.relu(X) 和 torch.max(X, 0) 之间的区别,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55545354/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com