06 2015 档案

摘要:这节课是最后一节,讲的是做机器学习的三个原则。 第一个是Occan's razor,即越简单越好。接着解释了什么是简单的hypothesis,什么是简单的model。关于为什么越简单越好,林老师从大致思想上进行了解释:如果一个简单的模型能对数据分得很好,那说明输入的资料是有规律的资料(这被... 阅读全文
posted @ 2015-06-30 15:35 牧马人夏峥 阅读(207) 评论(0) 推荐(0) 编辑
摘要:这节课是接着上节的正则化课程的,目的也是为了防止overfitting。 第一小节讲了模型的选择,前面讲了很多模型,那么如何做出正确的选择呢?我们的目标是选择最小的Eout目标函数。首先应避免视觉化选择,因为高维。假如选Ein最小的化,则会出现过拟合。虽然能用test数据选择最好的,但通常... 阅读全文
posted @ 2015-06-30 11:29 牧马人夏峥 阅读(188) 评论(0) 推荐(0) 编辑
摘要:这一节讲的是正则化,在优化中一直会用到正则化项,上课的时候老师一句话代过,没有作过多的解释。听完这节课后,才明白好大学和野鸡大学的区别有多大。总之,这是很有收获的一节课。 首先介绍了为什么要正则化,简单说就是将复杂的模型用简单的模型进行表示,至于如何表示,这中间有一系列推导假设,很有创意。 ... 阅读全文
posted @ 2015-06-30 09:36 牧马人夏峥 阅读(213) 评论(0) 推荐(0) 编辑
只有注册用户登录后才能阅读该文。
posted @ 2015-06-28 15:55 牧马人夏峥 阅读(7) 评论(0) 推荐(0) 编辑
摘要:这一节讲的是如何将线性不可分的情况转为非线性可分以及转换的代价。特征转换是机器学习的重点。最后得出重要的结论是,在做转换时,先从简单模型,再到复杂模型。参考:http://www.cnblogs.com/ymingjingr/p/4340977.html 阅读全文
posted @ 2015-06-27 19:38 牧马人夏峥 阅读(131) 评论(0) 推荐(0) 编辑
摘要:这一节讲线性模型,先将几种线性模型进行了对比,通过转换误差函数来将linear regression 和logistic regression 用于分类。 比较重要的是这种图,它解释了为何可以用Linear Regression或Logistic Regression来替代Linear Classi 阅读全文
posted @ 2015-06-27 11:46 牧马人夏峥 阅读(173) 评论(0) 推荐(0) 编辑
摘要:如果只想得到某种概率,而不是简单的分类,那么该如何做呢?在误差衡量问题上,如何选取误差函数这段很有意思。 接下来是如何最小化Ein,由于Ein是可凸优化的,所以采用的是梯度下降法:只要达到谷底,就找到了最优解。与PLA对比发现, logistic regression的梯度下降其实也是调整错分的w( 阅读全文
posted @ 2015-06-25 21:18 牧马人夏峥 阅读(177) 评论(0) 推荐(0) 编辑
摘要:之前一直在讲机器为什么能够学习,从这节课开始讲一些基本的机器学习算法,也就是机器如何学习。这节课讲的是线性回归,从使Ein最小化出发来,介绍了 Hat Matrix,要理解其中的几何意义。最后对比了linear regression 和 binary classification,并说明了linea... 阅读全文
posted @ 2015-06-25 18:26 牧马人夏峥 阅读(216) 评论(0) 推荐(0) 编辑
摘要:这是在百度文库里看到的:http://wenku.baidu.com/link?url=E_m_ERgoqpq8n16iuHki0HYdY7uknjBRmQmlpec45KMDv4S6NybGTPW7tUvkzgXZDY5Ydee0mdXTJLFmtwtnLgs-oTuews4ua2iwdXo7ik... 阅读全文
posted @ 2015-06-25 10:04 牧马人夏峥 阅读(8056) 评论(0) 推荐(1) 编辑
摘要:这一节主要讲的是,加入noise后,前面推导的一系列结论仍然有效。参考:http://www.cnblogs.com/HappyAngel/p/3653093.html 阅读全文
posted @ 2015-06-25 09:26 牧马人夏峥 阅读(151) 评论(0) 推荐(0) 编辑
摘要:这位博主总结了比较新的tracking方面的资源:http://blog.csdn.net/minstyrain/article/details/38640541 http://xilinx.eetrend.com/article/8919 ... 阅读全文
posted @ 2015-06-24 08:35 牧马人夏峥 阅读(169) 评论(0) 推荐(0) 编辑
摘要:这节课同样非常的抽象,主要讲的是VC Dimension,这节课最重要的是这幅图:参考:http://www.cnblogs.com/HappyAngel/p/3633989.html 阅读全文
posted @ 2015-06-23 11:41 牧马人夏峥 阅读(126) 评论(0) 推荐(0) 编辑
摘要:这节课听起来非常的抽象,深感自己的智商余额不足,也说明台大的这门机器学习课程理论化程度很高。还是看看这位博主的吧,总起的还不错,看后总算能明白点了:http://www.cnblogs.com/HappyAngel/p/3622333.html 阅读全文
posted @ 2015-06-22 21:10 牧马人夏峥 阅读(144) 评论(0) 推荐(0) 编辑
摘要:这节课的主题是接着上一节课的。上一节说到M为有限个时,我们才有可能得到Ein=Eout,那么对于有无限个M的PLA,它为什么也能work呢?接着提出了成长函数的概念,我们的目的就变成了寻找一个可以替代M、比M小的成长函数,并提出了断点的概念。具体参考这位博主的笔记:http://www.cnblog... 阅读全文
posted @ 2015-06-22 11:44 牧马人夏峥 阅读(148) 评论(0) 推荐(0) 编辑
摘要:第三讲比较简单,参考:http://www.cnblogs.com/HappyAngel/p/3466527.html 第四讲很抽象,尤其是第四个视频,目的仍然是为了证明机器学习是可能的,不过这个博主解释的还算清楚:http://www.cnblogs.com/HappyAngel/p/349580 阅读全文
posted @ 2015-06-20 21:55 牧马人夏峥 阅读(187) 评论(0) 推荐(0) 编辑
摘要:这学期学了机器学习这门课,想趁期末看看台大的这门课再把课程梳理一遍。 PLA是判断是非题,即输出1或-1。 笔记可以参考这位博主,写得还不错:http://www.cnblogs.com/HappyAngel/p/3456762.html 其中证明PLA算法确实能够越来越接近最完美的感知机以及PLA 阅读全文
posted @ 2015-06-18 22:35 牧马人夏峥 阅读(215) 评论(0) 推荐(0) 编辑
摘要:http://www.cv-foundation.org/openaccess/content_cvpr_2015/html/Liu_Real-Time_Part-Based_Visual_2015_CVPR_paper.html 阅读全文
posted @ 2015-06-04 10:42 牧马人夏峥 阅读(351) 评论(0) 推荐(0) 编辑
摘要:http://forum.memect.com/thread/%E8%AE%A1%E7%AE%97%E6%9C%BA%E8%A7%86%E8%A7%89%E6%95%B0%E6%8D%AE%E9%9B%86%E4%B8%8D%E5%AE%8C%E5%85%A8%E6%B1%87%E6%80%BB/ 阅读全文
posted @ 2015-06-04 08:47 牧马人夏峥 阅读(122) 评论(0) 推荐(0) 编辑
摘要:http://spin.atomicobject.com/2014/06/24/gradient-descent-linear-regression/这篇博文结合线性回归的例子介绍了梯度下降,有图有代码,通俗易懂 阅读全文
posted @ 2015-06-04 07:58 牧马人夏峥 阅读(155) 评论(0) 推荐(0) 编辑
摘要:涉及两篇论文:Visual Object Tracking using Adaptive Correlation Filters 和Fast Visual Tracking via Dense Spatio-Temporal Context Learning 可参考这位博主笔记:http://... 阅读全文
posted @ 2015-06-02 10:17 牧马人夏峥 阅读(1515) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示