gpt4 book ai didi

machine-learning - 为什么 1-范数 SVM 比 2-范数 SVM 更稀疏?

转载 作者:行者123 更新时间:2023-11-30 09:02:24 26 4
gpt4 key购买 nike

与在 SVM 的相同成本函数中使用 2-范数权重相比,我们如何通过在成本函数中使用 1-范数权重来提高稀疏性。

对于 1-范数:成本函数 - 最小化 ||w||_1
对于 2-范数:成本函数 - 最小化 ||w||_2

与LP-SVM有关吗?

最佳答案

查看 l_1 损失相对于某个参数的偏导数。

随着重量的增加,损失是恒定的。因此,增加的权重需要抵消一些固定的误差,无论权重已经有多小。

将其与 l2 损失进行比较,其中惩罚与当前参数的大小成比例。因此,当它接近 0 时,只需要误差无限小地减少即可抵消正则化惩罚。

关于machine-learning - 为什么 1-范数 SVM 比 2-范数 SVM 更稀疏?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11055761/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com