gpt4 book ai didi

tensorflow - 在深度学习中的卷积网络中使用多个相同的滤波器有什么好处

转载 作者:行者123 更新时间:2023-11-30 08:29:25 26 4
gpt4 key购买 nike

在深度学习的卷积网络中使用多个相同的滤波器有什么优势?

例如:我们在第一层使用6个大小为[5,5]的滤波器来扫描图像数据,这是一个大小为[28,28]的矩阵。问题是为什么我们不只使用单个大小为 [5,5] 的过滤器,而是使用 6 个或更多。最后他们将扫描完全相同的像素。我可以看到随机权重可能不同,但深度学习模型无论如何都会调整它。

那么,在卷积网络中使用多个相同形状的滤波器的主要优点和目的具体是什么?

最佳答案

为什么滤波器形状相同?

首先,内核形状相同只是为了加快计算速度。这允许批量应用卷积,例如使用 col2im 变换和矩阵乘法。这也使得将所有权重存储在一个多维数组中变得很方便。尽管从数学上讲,人们可以想象使用多个不同形状的过滤器。

一些架构,例如 Inception 网络,使用这个想法并并行应用不同的卷积层(具有不同的内核),并最终堆叠特征图。事实证明这非常有用。

为什么一个过滤器还不够?

因为每个过滤器都会学习恰好一个能够激发它的模式,例如类似 Gabor 的垂直线。单个过滤器不能被水平线和垂直线同等地激发。因此,要识别一个对象,一个这样的过滤器是不够的。

例如,为了识别猫,神经网络可能需要识别眼睛、尾部……所有这些都是由不同的线条和边缘组成的。如果网络能够识别图像中各种不同的形状和图案,那么它就可以对图像上的对象充满信心。即使对于像 MNIST 这样的简单数据集也是如此。

为什么过滤器会学习不同的模式?

一个简单的类比:想象一个具有一个隐藏层的线性回归网络。隐藏层中的每个神经元都连接到每个输入特征,因此它们都是对称的。但经过一些训练,不同的神经元将学习不同的高级特征,这对于做出正确的预测很有用。

有一个问题:如果网络用零初始化,它将遭受 symmetry issues 的影响。通常不会收敛到目标分布。因此,从一开始就在神经元中创建不对称性并让不同的神经元从相同的输入数据中获得不同的兴奋是至关重要的。这反过来又导致不同的梯度应用于权重,通常会进一步增加不对称性。这就是为什么不同的神经元接受不同的训练。

重要的是要提到随机初始化仍然可能出现的另一个问题,称为“共同适应”:当不同的神经元学会适应并相互依赖时。这个问题已经被 dropout technique 解决了后来通过 batch normalization ,本质上是通过以各种方式在训练过程中添加噪音。将其组合在一起,神经元更有可能学习数据的不同潜在表示。

更多链接

强烈推荐阅读CS231n tutorial by Stanford获得关于卷积神经网络的更好的直觉。

关于tensorflow - 在深度学习中的卷积网络中使用多个相同的滤波器有什么好处,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48102906/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com