gpt4 book ai didi

machine-learning - 最优决策平面的裕度

转载 作者:行者123 更新时间:2023-11-30 09:12:47 24 4
gpt4 key购买 nike

For a given dataset of 2-D input data, we apply the SVM learning
algorithm and achieve an optimal decision plane:

H(x) = x^1 + 2x^2 + 3

What is the margin of this SVM?

我已经研究这个问题几个小时了,试图找出如何回答这个问题。我认为这应该是相对简单的,但我一直在搜索我的学习 Material ,但找不到我应该如何回答这个问题。

如果我能获得有关解决此问题的步骤的帮助,我将不胜感激。

谢谢。

最佳答案

仅在给定最优决策平面的情况下不可能计算边际。您应该提供支持向量或至少提供类的样本。

无论如何,您可以按照以下步骤操作:

1- 计算拉格朗日乘数 (alpha) 我不知道您工作的环境,但您可以使用 MATLAB 的二次规划求解器: quadprog() ,使用起来并不难。

2- 查找支持向量。请记住,只有支持向量的 alpha 不等于零(但样本的其他 alpha 等于零),因此您可以找到类的支持向量。

3-计算w矢量是与最佳超平面正交的矢量。你知道,可以使用下面的求和来计算这个向量:

enter image description here

哪里,

alpha(i): alphas (lagrange multipliers) of support vector;    
y(i) : labels of samples (say -1 or +1);
phi() : kernel function;
x(i) : support vectors.

4- 从每个类中选取一个支持向量,假设其中一个是 SV1来自 1 级和其他 SV2来自第 2 类。现在您可以使用矢量投影和点积来计算边距:

margin = < (SV1 - SV2), w > / norm(w)

哪里,

<(SV1 - SV2), w> : dot product of vector (SV1 - SV2) and vector w
norm(w) : norm of vector w

关于machine-learning - 最优决策平面的裕度,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27681146/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com