《机器学习技法》---soft-margin SVM

1. soft-margin SVM的形式

 其中ξn表示每个点允许的犯错程度(偏离margin有多远),但是犯错是有代价的,也就是目标函数里面要最小化的。c控制对犯错的容忍程度。

 

2. 推导soft SVM的对偶问题

首先写出拉格朗日函数:

可以推导出对偶问题为:

即:

最优解满足KKT条件:

代入后可以将贝塔消去,ξ消去:

因此,对偶问题基本和原来相似:

 

3. 解 soft SVM问题

如何求b?需要找到阿尔法大于零小于C的那些向量,称为free向量:

 

 

4. soft-margin SVM中的三类向量

 

5. SVM中的留一交叉验证

未完持续

 

posted @ 2016-12-10 21:27  coldyan  阅读(465)  评论(0编辑  收藏  举报