svm相关理解

综述:机器学习中,很多时候都遇到过svm,对svm只是了解,还未做深入理解。现在对其相关公式做一个推导!

很多地方都是从最简单的二维二分类开始推导公式的,对于xi(x1,x2.....),分成两类,为了方便计算,分类结果为(-1,1),设为yi;我们在很多地方都看到过wx+b=0,wx+b=-1, wx+b=1;

其中wx+b=0就是其中三条直线中最中间的那一条,另外两条是平行该直线,且过支持向量的点。w就是法向量,我们的目标就是根据这些点求出w和b,让两类的间距最大。

这有一篇很不错的文档,作为svm的入门  http://www.cnblogs.com/LeftNotEasy/archive/2011/05/02/basic-of-svm.html和http://blog.csdn.net/v_july_v/article/details/7624837

关于对偶问题,这篇文章很不错http://www.cnblogs.com/90zeng/p/Lagrange_duality.html 还有 http://blog.csdn.net/wangkr111/article/details/21170809

对于很多维向量进行二分类,就是通过核函数映射到高维空间,进行分类,其本质就是神经网络。多维数据作为输入,隐含层就是核函数,最后输出一个分类结果,当然还有sign函数的优化用。

posted @ 2016-12-12 14:46  白菜hxj  阅读(250)  评论(0编辑  收藏  举报