gpt4 book ai didi

python - 添加批量归一化会降低性能

转载 作者:行者123 更新时间:2023-12-01 00:39:38 25 4
gpt4 key购买 nike

我正在使用 PyTorch 实现基于骨架的 Action 识别的分类网络。该模型由三个卷积层和两个全连接层组成。这个基本模型在 NTU-RGB+D 数据集中的准确率约为 70%。我想了解有关批量归一化的更多信息,因此我为除最后一层之外的所有层添加了批量归一化。令我惊讶的是,评估准确率不但没有提高,反而下降到了 60%,但训练准确率却从 80% 提高到了 90%。谁能说我做错了什么?或者添加批量归一化不需要提高准确性?

Training and evaluation accuracy **without** Batch Normalization Training and evaluation accuracy **with** Batch Normalization

批量归一化模型

class BaseModelV0p2(nn.Module):

def __init__(self, num_person, num_joint, num_class, num_coords):
super().__init__()
self.name = 'BaseModelV0p2'
self.num_person = num_person
self.num_joint = num_joint
self.num_class = num_class
self.channels = num_coords
self.out_channel = [32, 64, 128]
self.loss = loss
self.metric = metric
self.bn_momentum = 0.01

self.bn_cv1 = nn.BatchNorm2d(self.out_channel[0], momentum=self.bn_momentum)
self.conv1 = nn.Sequential(nn.Conv2d(in_channels=self.channels, out_channels=self.out_channel[0],
kernel_size=3, stride=1, padding=1),
self.bn_cv1,
nn.ReLU(),
nn.MaxPool2d(kernel_size=2, stride=2))

self.bn_cv2 = nn.BatchNorm2d(self.out_channel[1], momentum=self.bn_momentum)
self.conv2 = nn.Sequential(nn.Conv2d(in_channels=self.out_channel[0], out_channels=self.out_channel[1],
kernel_size=3, stride=1, padding=1),
self.bn_cv2,
nn.ReLU(),
nn.MaxPool2d(kernel_size=2, stride=2))

self.bn_cv3 = nn.BatchNorm2d(self.out_channel[2], momentum=self.bn_momentum)
self.conv3 = nn.Sequential(nn.Conv2d(in_channels=self.out_channel[1], out_channels=self.out_channel[2],
kernel_size=3, stride=1, padding=1),
self.bn_cv3,
nn.ReLU(),
nn.MaxPool2d(kernel_size=2, stride=2))

self.bn_fc1 = nn.BatchNorm1d(256 * 2, momentum=self.bn_momentum)
self.fc1 = nn.Sequential(nn.Linear(self.out_channel[2]*8*3, 256*2),
self.bn_fc1,
nn.ReLU(),
nn.Dropout2d(p=0.5)) # TO check

self.fc2 = nn.Sequential(nn.Linear(256*2, self.num_class))

def forward(self, input):
list_bn_layers = [self.bn_fc1, self.bn_cv3, self.bn_cv2, self.bn_cv1]
# set the momentum of the batch norm layers to given momentum value during trianing and 0 during evaluation
# ref: https://discuss.pytorch.org/t/model-eval-gives-incorrect-loss-for-model-with-batchnorm-layers/7561
# ref: https://github.com/pytorch/pytorch/issues/4741
for bn_layer in list_bn_layers:
if self.training:
bn_layer.momentum = self.bn_momentum
else:
bn_layer.momentum = 0

logits = []
for i in range(self.num_person):
out = self.conv1(input[:, :, :, :, i])

out = self.conv2(out)

out = self.conv3(out)

logits.append(out)

out = torch.max(logits[0], logits[1])
out = out.view(out.size(0), -1)
out = self.fc1(out)
out = self.fc2(out)

t = out

assert not ((t != t).any()) # find out nan in tensor
assert not (t.abs().sum() == 0) # find out 0 tensor

return out

最佳答案

我对您所观察到的现象的解释是,您不是在减少协方差偏移(这正是批量归一化的目的),而是在增加协方差偏移。换句话说,您不是减少训练和测试之间的分布差异,而是增加它,这就是导致训练和测试之间的准确率差异更大的原因。批量归一化并不能始终保证更好的性能,但对于某些问题它效果不佳。我有几个可以带来改进的想法:

  • 如果批量大小较小,则增加批量大小,这将有助于批量归一化层中计算的平均值和标准差成为总体参数的更稳健的估计。
  • 稍微减小 bn_momentum 参数,看看这是否也能稳定 Batch Norm 参数。
  • 我不确定测试时是否应将 bn_momentum 设置为零,我认为您应该在想要训练时调用 model.train() model.eval() 当您想要使用经过训练的模型来执行推理时。
  • 您也可以尝试使用“层归一化”而不是“批量归一化”,因为它不需要累积任何统计数据,并且通常效果很好
  • 尝试使用 dropout 对模型进行一些正则化
  • 确保在每个时期重新调整训练集。不打乱数据集可能会导致相关批处理,从而使统计数据处于批处理归一化循环中。这可能会影响你的概括我希望这些想法对你有用

关于python - 添加批量归一化会降低性能,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57457817/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com