摘要: 所以,这里我们通过一种两个步骤的训练方式把SVM方法和Logistic Regression结合起来,第一步我们还是通过SVM求解得到Wsvm和bsvm,然后我们把得到的w和b,用上面的方法进行Logistic Regression的训练, 通过A和B这两个参数进行放缩和平移,最终得到的结果如果A> 阅读全文
posted @ 2016-08-12 14:28 Sh_ooter 阅读(823) 评论(0) 推荐(0)
摘要: 前面两章中讲到的SVM的求解方式都是基于这样一个前提:我们最终求得的直线或者曲线都能把两种不同的分完完全全得区分开来,就是所谓的Hard-Margin,但是这样的方式有时候就会造成过拟合,如上图所示,因为这样的方式并不能把那些所谓的噪声给屏蔽掉. 为了抵消这些噪声的影响,我们在Hard-Margin 阅读全文
posted @ 2016-08-12 14:16 Sh_ooter 阅读(846) 评论(0) 推荐(0)
摘要: 上一章结束的时候讲到SVM在做优化的时候要计算znTzm这一项,这里还要受到VC dimension的约束,同时计算的时候,我们先要把xn扩展到高阶项,然后相应的计算,这一项计算比较耗费时间,下面就介绍能够更快计算这一项的方法。 以二阶项为例子,上述的式子可以用上述的形式进行化简,这样计算的时候只要 阅读全文
posted @ 2016-08-05 23:06 Sh_ooter 阅读(1086) 评论(0) 推荐(0)
摘要: 上一章的内容中介绍到非线性的SVM可以利用一个不大的VC dimension来刻画比较复杂的边界。但是如果当这个VC dimension变得比较大的时候,计算就比较费时了。 这一章将会介绍非线性SVM的另一种理解和解决方法。 在这里,我们将左边的约束条件转化成为利用拉格朗日乘数法表示成为右边的式子, 阅读全文
posted @ 2016-08-05 22:52 Sh_ooter 阅读(732) 评论(0) 推荐(0)
摘要: 根据台大的机器学习在Coursera上公开课《机器学习基石》和《机器学习技术》整理的笔记,考虑到现在该课程已经关闭了,所以我把我的学习笔记慢慢整理出来。这是第一篇-Linear SVM 如果我们采用PLA(Percetron Learning Algorithmn),已经能够得到若干种w,这些w都能 阅读全文
posted @ 2016-08-04 16:56 Sh_ooter 阅读(343) 评论(0) 推荐(0)