gpt4 book ai didi

python - 当我添加更多隐藏层时,神经网络仅产生 1 的值

转载 作者:行者123 更新时间:2023-11-30 09:05:12 24 4
gpt4 key购买 nike

因此,我正在构建一个机器学习竞技场模拟,我可以在其中交换不同的算法来展示不同模型的优点和缺点。

我尝试使用 ReLU 激活,但这并不理想,因为 SoftMax 会生成概率分布,这意味着一次几乎只能执行 1 个操作。

我认为 sigmoid 是最好的选择,但是当我计算输出层时,它在每一层中逐渐变得越来越大,所以当我添加 2 个隐藏层时:所有输出节点的结果都是 1。

这是一个演示: https://i.gyazo.com/b12d4efdd1b0af518751762cb2f000f9.mp4

这里是一些代码片段:

class NeuralNetwork:

layer_weights: list
neuron_weights: list = None # Stored here for verbose
neuron_screen_locations: list = None

def __init__(
self,
dimensions: Tuple[int] = None,
layer_weights: list = None
):

if dimensions:
self.layer_weights = []
for i in range(len(dimensions)-1):
self.layer_weights.append(
np.random.uniform(
size=(dimensions[i], dimensions[i+1])
)
)
return

self.layer_weights = list(layer_weights)

def activate_layer(self, layer: list):
for x in np.nditer(layer, op_flags=['readwrite']):
x[...] = self.sigmoid(x)

def output(self, inputs: list):
self.neuron_weights = []
self.neuron_weights.append(np.array((inputs)))
output = inputs

for weight_layer in self.layer_weights:
output = np.matmul(output, weight_layer)
self.activate_layer(output)
self.neuron_weights.append(output)

return output

def sigmoid(self, x, derivative=False):
...

def ReLU(self, x):
...

def softmax(self, x):
...

def draw_neurons(self): # Draws neurons to screen
...

def draw_weights(self): # Draws synaptic connections between neurons to screen
...

编辑:

我也尝试使用 Tanh,它产生了类似的结果...这是一个演示(具有更多层): https://i.gyazo.com/d779dce5cd974bc644d0f1ffa267c062.mp4

这是我的输入功能的代码(也许问题可能出在这里?):

def look(self, match_up: MatchUp):
"""Set up Neural Network inputs."""
p: Pawn = self.pawn

imminent: Laser = match_up.get_most_imminent_laser(p)
enemy: Pawn = match_up.get_closest_opponent(p)

max_angle = math.pi * 2

self.inputs = [
1/math.sqrt(p.dist_squared(actor=imminent)
) if imminent != None else 1,
p.angle_to(actor=imminent)/max_angle if imminent != None else 1,

1/math.sqrt(p.dist_squared(actor=enemy)) if enemy != None else 1,
p.angle_to(actor=enemy)/max_angle if enemy != None else 1,

p.get_direc()/max_angle,
p.health/p.stat_bias.max_health
]

最佳答案

你的问题是权重初始化。因为您使用统一权重初始化,所以您的网络的值会爆炸,因此只产生一个值并遭受梯度消失的影响。从某种意义上说,您应该努力进行初始化,在每一层之后产生正态分布的输出。

对于 sigmoid/TanH,这将是 glorot 初始化,stddev = sqrt(2/(Nr. 输入节点 + Nr. 输出节点))。

对于 ReLU,这将是初始化 stddev = sqrt(2/(Nr. 输入节点))。

对于您的程序,您只需将初始化从 np.random.uniform(0,1, size=(dimensions[i],dimensions[i+1])) 替换为 np.random.normal(0, np.sqrt(2/(维度[i] + 维度[i+1])), size=(维度[i], 维度[i+1]))它应该按预期工作。

引文:glorot Init。 [http://proceedings.mlr.press/v9/glorot10a/glorot10a.pdf?hc_location=ufi] ,他初始化。 [https://www.cv-foundation.org/openaccess/content_iccv_2015/papers/He_Delving_Deep_into_ICCV_2015_paper.pdf]

关于python - 当我添加更多隐藏层时,神经网络仅产生 1 的值,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53830488/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com