- 数据挖掘学习笔记--决策树 C4.5
- 数据挖掘十大算法--K-均值聚类算法
- 机器学习与数据挖掘-支持向量机(SVM)
- 机器学习与数据挖掘-支持向量机(SVM)(一)
- 支持向量机(SVM)(二)-- 拉格朗日对偶(Lagrange duality)
- 支持向量机(SVM)(三)-- 最优间隔分类器(optimal margin classifier)
- 支持向量机(四)-- 核函数
- 支持向量机(SVM)(五)-- SMO 算法详解
- 数据挖掘十大算法--Apriori 算法
- 数据挖掘十大算法----EM 算法(最大期望算法)
- PageRank
- 数据挖掘算法学习(八)Adaboost 算法
- 数据挖掘十大算法--K 近邻算法
- 机器学习与数据挖掘-K 最近邻(KNN) 算法的实现(java 和 python 版)
- 朴素贝叶斯分类器
- 数据挖掘十大经典算法--CART: 分类与回归树
文章来源于网络收集而来,版权归原创者所有,如有侵权请及时联系!
支持向量机(SVM)(三)-- 最优间隔分类器(optimal margin classifier)
在之前为了寻找最有分类器,我们提出了如下优化问题:
在这里我们可以把约束条件改写成如下:
首先我们看下面的图示:
很显然我们可以看出实线是最大间隔超平面,假设×号的是正例,圆圈的是负例。在虚线上的点和在实线上面的两个一共这三个点称作支持向量。现在我们结合 KKT 条件分析下这个图。
我们从式子和式子
可以看出如果
那么
,
这个也就说明时,w 处于可行域的边界上,这时才是起作用的约束。
1、那我们现在可以构造拉格朗日函数如下:
注意到这里只有没
是因为原问题中没有等式约束,只有不等式约束。
2、接下来我们对 w 和 b 分别求偏导数。
并得到
3、将上式带回到拉格朗日函数中得到:
由于,因此简化为
4、现在我们得到了关于 w 和 b 的可以最小化的等式,我们在联合这个参数,当然他的条件还
>=0,现在我们可以得到如下的二元优化等式了:
5、现在你还必须知道我们之前讲解的条件一是,二是 KKT 条件:
很显然存在 w 使得对于所有的 i。因此,一定存
使
是原问题的解
是对偶问题的解。
如果求出(也就是
),根据
即可求出 w(也是,原问题的解)。然后
即可求出 b。即离超平面最近的正的函数间隔要等于离超平面最近的负的函数间隔。
6、现在我们在看另外一个问题:
由
所
这里我们将向量内表示
现在可以看出我要计算等式的话就只需要计算向量的内积就好了,同时要 在支持向量上面的话,那
,这样就更简单了,因此很多的值都是 0。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论