gpt4 book ai didi

deep-learning - Leaky-ReLU 的缺点是什么?

转载 作者:行者123 更新时间:2023-12-05 04:00:21 26 4
gpt4 key购买 nike

我们使用 ReLu 而不是 Sigmoid 激活函数,因为它没有像激活函数一样存在于 Sigmoid 中的梯度消失和爆炸问题,
Leaky-ReLU 是 rely 的改进之一。大家都在谈论 Leaky-ReLU 的优势。但是 Leaky-ReLU 的缺点是什么?

最佳答案

ReLU 替换了隐藏层中的 sigmoid,因为它可以为通用应用程序产生更好的结果,但这实际上取决于您的情况,其他激活函数可能效果更好。 Leaky ReLU 有助于解决梯度消失问题。

我认为 Leaky ReLU 的主要缺点是您需要调整另一个参数,即斜率。但我指出,这实际上取决于您的问题,哪个功能效果更好。

关于deep-learning - Leaky-ReLU 的缺点是什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56287870/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com