gpt4 book ai didi

machine-learning - 推导 SVM 对偶形式方程

转载 作者:行者123 更新时间:2023-11-30 09:36:53 27 4
gpt4 key购买 nike

enter image description here

对于上述 svm 的拉格朗日函数,我可以得到如下的偏导数: enter image description here

但是,我不明白如何将它们插入拉格朗日以导出对偶形式? W可以被替换,但是b去哪里了?

enter image description here

有人可以解释一下并给出详细步骤吗?

最佳答案

你的拉格朗日函数具有形式

L(w, b, a) = 1/2 ||w||^2 + SUM_i a_i (1 - y_i(<w, x_i> + b))

你解决了,为了达到极值,你需要:

w = SUM_i a_i y_i x_i  
SUM_i a_i y_i = 0

我们首先插入w

L(w, b, a) = 1/2 <SUM_i a_i y_i x_i, SUM_j a_i y_i x_i> 
+ SUM_i a_i (1 - y_i(<SUM_j a_j y_j x_j , x_i> + b))
= 1/2 SUM_i,j a_i a_j y_i y_j <x_i, x_j>
+ SUM_i a_i
- SUM_i (a_i y_i( SUM_j a_j y_j <x_j, x_i> + b))
= 1/2 SUM_i,j a_i a_j y_i y_j <x_i, x_j>
+ SUM_i a_i
- SUM_i (a_i y_i SUM_j ( a_j y_j <x_j, x_i> ) + a_i y_i b)
= 1/2 SUM_i,j a_i a_j y_i y_j <x_i, x_j>
+ SUM_i a_i
- SUM_i a_i y_i SUM_j ( a_j y_j <x_j, x_i> )
- SUM_i a_i y_i b
= 1/2 SUM_i,j a_i a_j y_i y_j <x_i, x_j>
+ SUM_i a_i
- SUM_i a_i a_j y_i y_j <x_j, x_i>
- SUM_i a_i y_i b
= + SUM_i a_i
-1/2 SUM_i a_i a_j y_i y_j <x_j, x_i>
- b (SUM_i a_i y_i)

现在我们插入SUM_i a_i y_i = 0,这给了我们

L(w, b, a) = SUM_i a_i - 1/2 SUM_i a_i a_j y_i y_j <x_j, x_i>

因此从程序员的角度在优化过程中你并不关心b,因为你可以在不知情的情况下找到最佳的a!一旦您拥有对 a 进行优化的代码,您现在就可以使用原始方程等恢复 b

关于machine-learning - 推导 SVM 对偶形式方程,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37821161/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com