gpt4 book ai didi

python - 卷积层输出更改为 1。在将每个图像传递给全连接层后

转载 作者:行者123 更新时间:2023-11-30 09:55:04 25 4
gpt4 key购买 nike

我使用 theano 构建了一个 CNN。卷积层和隐藏层的代码是:

class HiddenLayer(Layer):

def __init__(self,n_in,n_out,inp_vector=T.dmatrix(),non_linearity='sigmoid',W=None,b=None):
Layer.__init__(self,n_in,n_out,W,b)
self.inp=inp_vector
out=self.non_lins[non_linearity](inp_vector.dot(self.W.transpose())+self.b)
self.output=out

class ConvolutionLayer(Layer):
def __init__(self,W_shape,b_shape,image_shape,inp_vector=T.tensor4(),maxpool=(2,2),non_linearity='tanh',W=None,b=None,flatten=False,batch=1):
W=theano.shared(numpy.random.standard_normal(W_shape))
b=theano.shared(numpy.random.random(b_shape))
Layer.__init__(self,0,0,W,b)
self.inp=inp_vector
out=convop.conv2d(input=inp_vector,filters=self.W,filter_shape=W_shape,image_shape=image_shape)
self.output=self.non_lins[non_linearity](downsample.max_pool_2d(out,maxpool,ignore_border=True)+self.b.dimshuffle('x',0,'x','x'))
if flatten:
self.output=self.output.flatten(batch)
else:
self.output=self.output

我的神经网络有 5 层。但为了检查出了什么问题,我剥离了所有其他隐藏层,只保留连接到卷积层的隐藏层。我观察到卷积层的输出还好,但是经过全连接层后,就变成了:

(2, 5000)
[[-1. -1. -1. ..., -1. -1. -1.]
[-1. -1. -1. ..., -1. -1. -1.]]

这里2,5000是隐藏层输出矩阵的形状。网络实现是:

layer0=machinebrain.ConvolutionLayer(image_shape=(2,3,480,640),W_shape=
(2,3,5,5),maxpool=(4,4),b_shape=(2,))
layer1=machinebrain.ConvolutionLayer(image_shape=(2,2,119,159),inp_vector=
layer0.output,maxpool=(2,2),W_shape=(3,2,5,5),b_shape=(3,),flatten=True,batch=2)
layer3=machinebrain.HiddenLayer(inp_vector=layer1.output,
non_linearity='tanh',n_in=13167,n_out=5000)

知道什么可能导致卷积层的输出在通过隐藏层后变为全 1 吗?

最佳答案

您的非线性是 tanh,其饱和值为 -1(对应于非常负的输入)和 +1(对应于非常大的正输入)。也许你的层的激活给你带来了非常大的数值?您可以尝试对输入进行全局对比度归一化(零中心并除以标准差),以更好地调节输入值。还可以尝试切换到 ReLU 激活甚至线性激活,以检查从您引用的特定层获得的激活值类型。

关于python - 卷积层输出更改为 1。在将每个图像传递给全连接层后,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34546792/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com