gpt4 book ai didi

machine-learning - 如何更新神经网络反向传播中的偏差?

转载 作者:行者123 更新时间:2023-11-30 08:19:54 25 4
gpt4 key购买 nike

有人可以向我解释一下如何在整个反向传播过程中更新偏差吗?

我读了很多书,但找不到偏见更新!

我知道偏差是一个额外的输入 1,并附加了一个权重(对于每个神经元)。一定有一个公式。

最佳答案

遵循 Rojas 1996, chapter 7 的符号,反向传播计算误差函数E的偏导数(又名成本,又名损失)

∂E/∂w[i,j] = delta[j] * o[i]

其中w[i,j]是神经元ijj之间连接的权重> 在网络中比 i 高一层,并且 o[i]i 的输出(激活)(在以下情况下) “输入层”,这只是正在考虑的训练样本中特征i的值)。如何确定delta在任何教科书中都有给出,并且取决于激活函数,所以这里不再重复。

这些值可以用于权重更新,例如

// update rule for vanilla online gradient descent
w[i,j] -= gamma * o[i] * delta[j]

其中gamma是学习率。

偏置权重的规则非常相似,只是没有来自前一层的输入。相反,偏差(概念上)是由固定激活值为 1 的神经元的输入引起的。因此,偏差权重的更新规则是

bias[j] -= gamma_bias * 1 * delta[j]

其中bias[j]是神经元j上的偏置权重,与1的乘法显然可以省略,而gamma_bias可以设置为gamma或其他值。如果我没记错的话,较低的值是首选,尽管我不确定其理论依据。

关于machine-learning - 如何更新神经网络反向传播中的偏差?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/3775032/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com