摘要: SVM入门(九)松弛变量(续) 接下来要说的东西其实不是松弛变量本身,但由于是为了使用松弛变量才引入的,因此放在这里也算合适,那就是惩罚因子C。回头看一眼引入了松弛变量以后的优化问题: 注意其中C的位置,也可以回想一下C所起的作用(表征你有多么重视离群点,C越大越重视,越不想丢掉它们)。这个式子是以 阅读全文
posted @ 2017-07-13 15:31 ruby33 阅读(1444) 评论(0) 推荐(0) 编辑
摘要: SVM入门(八)松弛变量 现在我们已经把一个本来线性不可分的文本分类问题,通过映射到高维空间而变成了线性可分的。就像下图这样: 圆形和方形的点各有成千上万个(毕竟,这就是我们训练集中文档的数量嘛,当然很大了)。现在想象我们有另一个训练集,只比原先这个训练集多了一篇文章,映射到高维空间以后(当然,也使 阅读全文
posted @ 2017-07-13 15:28 ruby33 阅读(282) 评论(0) 推荐(0) 编辑
摘要: SVM入门(七)为何需要核函数 生存?还是毁灭?——哈姆雷特 可分?还是不可分?——支持向量机 之前一直在讨论的线性分类器,器如其名(汗,这是什么说法啊),只能对线性可分的样本做处理。如果提供的样本线性不可分,结果很简单,线性分类器的求解程序会无限循环,永远也解不出来。这必然使得它的适用范围大大缩小 阅读全文
posted @ 2017-07-13 15:22 ruby33 阅读(122) 评论(0) 推荐(0) 编辑
摘要: SVM入门(六)线性分类器的求解——问题的转化,直观角度 让我再一次比较完整的重复一下我们要解决的问题:我们有属于两个类别的样本点(并不限定这些点在二维空间中)若干,如图, 圆形的样本点定为正样本(连带着,我们可以把正样本所属的类叫做正类),方形的点定为负例。我们想求得这样一个线性函数(在n维空间中 阅读全文
posted @ 2017-07-13 11:57 ruby33 阅读(169) 评论(0) 推荐(0) 编辑
摘要: SVM入门(五)线性分类器的求解——问题的描述Part2 从最一般的定义上说,一个求最小值的问题就是一个优化问题(也叫寻优问题,更文绉绉的叫法是规划——Programming),它同样由两部分组成,目标函数和约束条件,可以用下面的式子表示: (式1) 约束条件用函数c来表示,就是constrain的 阅读全文
posted @ 2017-07-13 11:43 ruby33 阅读(127) 评论(0) 推荐(0) 编辑
摘要: SVM入门(四)线性分类器的求解——问题的描述Part1 SVM入门(四)线性分类器的求解——问题的描述Part1 上节说到我们有了一个线性分类函数,也有了判断解优劣的标准——即有了优化的目标,这个目标就是最大化几何间隔,但是看过一些关于SVM的论文的人一定记得什么优化的目标是要最小化||w||这样 阅读全文
posted @ 2017-07-13 11:34 ruby33 阅读(182) 评论(0) 推荐(0) 编辑
摘要: (一)SVM的八股简介 支持向量机(Support Vector Machine)是Cortes和Vapnik于1995年首先提出的,它在解决小样本、非线性及高维模式识别中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中[10]。支持向量机方法是建立在统计学习理论的VC 维理论和结 阅读全文
posted @ 2017-07-13 11:30 ruby33 阅读(182) 评论(0) 推荐(0) 编辑