gpt4 book ai didi

neural-network - sigmoid 和 tanh 的数据集值分布

转载 作者:行者123 更新时间:2023-12-02 01:04:50 33 4
gpt4 key购买 nike

正如许多论文指出的那样,为了获得更好的神经网络学习曲线,最好以值匹配高斯曲线的方式对数据集进行归一化。

这是否仅在我们使用 sigmoid 函数作为压缩函数时适用?如果不是,哪种偏差最适合 tanh 压缩函数?

最佳答案

Does this apply only if we use sigmoid function as squashing function?

不,激活分布显然取决于激活函数,这就是为什么基于 sigmoid 和 relu 的神经网络的初始化技术不同的原因。查看Xavier和He初始化的区别in this question .输入分布也是如此。

If not what diviation is best for tanh squashing function?

但是 tanh 是一个缩放和移位的 sigmoid:

tanh(x) = 2⋅sigmoid(2x) - 1

因此,如果激活对于 sigmoid 激活是正态分布的,它们对于 tanh 仍然是正态分布的。仅具有缩放标准偏差和移动平均值。所以相同的输入分布对 tanh 有效。如果您希望获得相同的高斯方差,您可以按 sqrt(2) 缩放输入,但这实际上并不那么重要。

关于neural-network - sigmoid 和 tanh 的数据集值分布,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48432788/

33 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com