gpt4 book ai didi

python - 神经网络的反向传播 - Python

转载 作者:太空宇宙 更新时间:2023-11-04 06:35:04 25 4
gpt4 key购买 nike

我正在编写一个程序在 python 中进行神经网络我正在尝试设置反向传播算法。基本思想是,我查看 5,000 个训练示例并收集错误,找出我需要将 theta 移动到哪个方向,然后将它们移动到那个方向。有训练示例,然后我使用一个隐藏层,然后是一个输出层。但是,我在这里得到的梯度/导数/错误是错误的,因为我没有正确移动 thetas,因为它们需要移动。我今天投入了 8 个小时,不确定我做错了什么。感谢您的帮助!!

x = 401x5000 matrix

y = 10x5000 matrix # 10 possible output classes, so one column will look like [0, 0, 0, 1, 0... 0] to indicate the output class was 4

theta_1 = 25x401

theta_2 = 10x26


alpha=.01

sigmoid= lambda theta, x: 1 / (1 + np.exp(-(theta*x)))


#move thetas in right direction for each iteration
for iter in range(0,1):
all_delta_1, all_delta_2 = 0, 0
#loop through each training example, 1...m
for t in range(0,5000):

hidden_layer = np.matrix(np.concatenate((np.ones((1,1)),sigmoid(theta_1,x[:,t]))))
output_layer = sigmoid(theta_2,hidden_layer)

delta_3 = output_layer - y[:,t]
delta_2= np.multiply((theta_2.T*delta_3),(np.multiply(hidden_layer,(1-hidden_layer))))

#print type(delta_3), delta_3.shape, type(hidden_layer.T), hidden_layer.T.shape
all_delta_2 += delta_3*hidden_layer.T
all_delta_1 += delta_2[1:]*x[:,t].T



delta_gradient_2 = (all_delta_2 / m)
delta_gradient_1 = (all_delta_1 / m)
theta_1 = theta_1- (alpha * delta_gradient_1)
theta_2 = theta_2- (alpha * delta_gradient_2)

最佳答案

看起来您的渐变是相对于未压缩的输出层而言的。

尝试将 output_layer = sigmoid(theta_2,hidden_​​layer) 更改为 output_layer = theta_2*hidden_​​layer

或者重新计算压缩输出的梯度。

关于python - 神经网络的反向传播 - Python,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/12417688/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com