作者热门文章
- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
Tensor-flow 具有近端梯度下降优化器,可以称为:
loss = Y-w*x # example of a loss function. w-weights to be calculated. x - inputs.
opt=proximal_gradient_descent.ProximalGradientDescentOptimizer(learningrate,l1_regularization_strength, l2_regularization_strength)
opt_step= opt.minimize(loss)
由于我们知道近端梯度下降采用 l1-norm 和 l2-norm 作为正则化,所以我的问题是:我应该在损失中包含 l1/l2 范数的部分,还是应该使用类似的东西我的损失在上面吗?
此外,ProximalGradientDescentOptimizer 似乎是在 approximation_gradient_descent 下定义的,而 minimise 是在 optimizationr 下定义的。我不知道regularization_strength是否可以传递给优化器。
如果有人对这些问题有什么想法,请告诉我。谢谢!
最佳答案
正在使用 tensorflow 优化器,它将正则化作为优化器参数,不要在损失函数中包含正则化项。许多优化器都会对正则化进行特殊处理,如果您还在那里添加正则化器,您最终会重复计算或失去这种特殊情况的优势。
关于machine-learning - 近端梯度下降的 l1_regularization_strength 和 l2_regularization_strength 的定义,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45243689/
我是一名优秀的程序员,十分优秀!