gpt4 book ai didi

deep-learning - 如何将 pytorch 模型输出标准化为 [0,1] 范围内

转载 作者:行者123 更新时间:2023-12-03 08:14:50 25 4
gpt4 key购买 nike

假设我有一个名为 UNet 的模型

output = UNet(input)

输出是灰度图像形状的向量:(batch_size,1,128,128)

我想要做的是将每个图像标准化为[0,1]范围内。

我是这样做的:

for i in range(batch_size):
output[i,:,:,:] = output[i,:,:,:]/torch.amax(output,dim=(1,2,3))[i]

现在输出中的每个图像都已标准化,但是当我训练这样的模型时,pytorch 声称它无法计算此过程中的梯度,我明白为什么。

我的问题是在不终止反向传播流的情况下标准化图像的正确方法是什么?类似的东西

output = UNet(input)
output = output.normalize
output2 = some_model(output)
loss = ..
loss.backward()
optimize.step()

我现在唯一的选择是在 UNet 末尾添加 sigmoid 激活,但我认为这不是一个好主意..

更新 - 代码(gen2,disc =unet,鉴别器模型。est_bias是一些输出):


更新2x代码:

with torch.no_grad():
est_bias_for_disc = gen2(input_img)

est_bias_for_disc /= est_bias_for_disc.amax(dim=(1,2,3), keepdim=True)
disc_fake_hat = disc(est_bias_for_disc.detach())
disc_fake_loss = BCE(disc_fake_hat, torch.zeros_like(disc_fake_hat))

disc_real_hat = disc(bias_ref)
disc_real_loss = BCE(disc_real_hat, torch.ones_like(disc_real_hat))
disc_loss = (disc_fake_loss + disc_real_loss) / 2
if epoch<=epochs_till_gen2_stop:
disc_loss.backward(retain_graph=True) # Update gradients
opt_disc.step() # Update optimizer

然后是单独的训练:

 opt_gen2.zero_grad()
est_bias = gen2(input_img)
est_bias /= est_bias.amax(dim=(1,2,3), keepdim=True)
disc_fake = disc(est_bias)
ADV_loss = BCE(disc_fake, torch.ones_like(disc_fake))
gen2_loss = ADV_loss
gen2_loss.backward()
opt_gen2.step()

最佳答案

您可以使用标准化功能:

>>> import torch
>>> import torch.nn.functional as F
>>> x = torch.tensor([[3.,4.],[5.,6.],[7.,8.]])
>>> x = F.normalize(x, dim = 0)
>>> print(x)

tensor([[0.3293, 0.3714],
[0.5488, 0.5571],
[0.7683, 0.7428]])

只要不使用 out,这将给出可微分的张量。

关于deep-learning - 如何将 pytorch 模型输出标准化为 [0,1] 范围内,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/69778474/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com