随笔分类 -  机器学习公开课笔记

上一页 1 2

看了课程的introduction 就决定跟这个课程 林的风格我非常喜欢
【Regularization】林轩田机器学习基石
摘要:正则化的提出,是因为要解决overfitting的问题。以Linear Regression为例:低次多项式拟合的效果可能会好于高次多项式拟合的效果。这里回顾上上节nonlinear transform的课件:上面的内容说的是,多项式拟合这种的假设空间,是nested hypothesis;因此,能... 阅读全文

posted @ 2015-06-30 20:10 承续缘 阅读(530) 评论(0) 推荐(0) 编辑

【Hazard of Overfitting】林轩田机器学习基石
摘要:首先明确了什么是Overfitting随后,用开车的例子给出了Overfitting的出现原因出现原因有三个:(1)dvc太高,模型过于复杂(开车开太快)(2)data中噪声太大(路面太颠簸)(3)数据量N太小(知道的路线太少)这里(1)是前提,模型太复杂:(1)模型越复杂,就会捕获train da... 阅读全文

posted @ 2015-06-28 22:18 承续缘 阅读(595) 评论(0) 推荐(0) 编辑

【作业三】林轩田机器学习基石
摘要:关注了Q18~Q20三道编程作业题。这三道题都与Logistic Regression相关。Q18~19是用全量梯度下降实现Logistic Regression;Q20要求用随机梯度下降实现Logistic Regression。这三题的代码都何在一个py文件中了。个人觉得,这道题的程序设计,完全... 阅读全文

posted @ 2015-06-28 15:19 承续缘 阅读(1577) 评论(1) 推荐(0) 编辑

【Linear Models for Binary Classification】林轩田机器学习基石
摘要:首先回顾了几个Linear Model的共性:都是算出来一个score,然后做某种变化处理。既然Linear Model有各种好处(训练时间,公式简单),那如何把Linear Regression给应用到Classification的问题上呢?到底能不能迁移呢?总结了如下的集中Linear Mode... 阅读全文

posted @ 2015-06-27 11:03 承续缘 阅读(795) 评论(0) 推荐(0) 编辑

【 Logistic Regression 】林轩田机器学习基石
摘要:这里提出Logistic Regression的角度是Soft Binary Classification。输出限定在0~1之间,用于表示可能发生positive的概率。具体的做法是在Linear Regression的基础上,再加一层Logistic Function,限定住输出的取值。完成了hy... 阅读全文

posted @ 2015-06-26 12:50 承续缘 阅读(952) 评论(0) 推荐(0) 编辑

【Linear Regression】林轩田机器学习基石
摘要:这一节开始讲基础的Linear Regression算法。(1)Linear Regression的假设空间变成了实数域(2)Linear Regression的目标是找到使得残差更小的分割线(超平面)下面进入核心环节:Linear Regression的优化目标是minimize Ein(W)为了... 阅读全文

posted @ 2015-06-24 20:42 承续缘 阅读(974) 评论(0) 推荐(0) 编辑

【作业二】林轩田机器学习基石
摘要:作业一被bubuko抓取了,要是能注明转载就更好了(http://bubuko.com/infodetail-916604.html) 作业二关注的题目是需要coding的Q16~Q20 Q16理解了一段时间,题目阐述的不够详细。理解了题意之后,发现其实很简单。 理解问题的关键是题目中给的's'是啥 阅读全文

posted @ 2015-06-23 17:44 承续缘 阅读(3067) 评论(1) 推荐(1) 编辑

【Noise and Probabilistic Target】林轩田机器学习基石
摘要:http://beader.me/mlnotebook/section2/noise-and-error.html上面这个日志总结的已经很好了。这一章的内容,在后面具体的算法中cost function体会更好一些。没必要过于纠结。 阅读全文

posted @ 2015-06-22 21:52 承续缘 阅读(381) 评论(0) 推荐(0) 编辑

【The VC Dimension】林轩田机器学习基石
摘要:首先回顾上节课末尾引出来的VC Bound概念,对于机器学习来说,VC dimension理论到底有啥用。三点:1. 如果有Break Point证明是一个好的假设集合2. 如果N足够大,那么Ein跟Eout的表现会比较接近3. 如果算法A选的g足够好(Ein很小),则可能从数据中学到了东西====... 阅读全文

posted @ 2015-06-19 20:30 承续缘 阅读(1298) 评论(0) 推荐(0) 编辑

【Theory of Generalization】林轩田机器学习基石
摘要:紧接上一讲的Break Point of H。有一个非常intuition的结论,如果break point在k取到了,那么k+1, k+2,... 都是break point。那么除此之外,我们还能获得那些讯息?这里举了一些例子,核心就是说下面的事情简言之,如果H有Break Point k,那么... 阅读全文

posted @ 2015-06-19 18:44 承续缘 阅读(533) 评论(0) 推荐(0) 编辑

【Training versus Testing】林轩田机器学习基石
摘要:接着上一讲留下的关子,机器学习是否可行与假设集合H的数量M的关系。机器学习是否可行的两个关键点:1. Ein(g)是否足够小(在训练集上的表现是否出色)2. Eout(g)是否与Ein(g)足够接近(在训练集上的表现能否迁移到测试集上)(1)如果假设集合数量小(M小),可知union bound后,... 阅读全文

posted @ 2015-06-19 16:57 承续缘 阅读(559) 评论(2) 推荐(0) 编辑

【作业一】林轩田机器学习基石
摘要:作业方面,暂时只关注需要编程的题目了,用python完成代码。Q15~Q17应用的是传统PLA算法,给定的数据集也是保证线性可分的。代码需要完成的就是实现一个简单的PLA,并且“W = W + speed*yX”中的speed是可以配置的(即学习速率)代码1#encoding=utf8import ... 阅读全文

posted @ 2015-06-15 16:17 承续缘 阅读(2916) 评论(1) 推荐(0) 编辑

【Perceptron Learning Algorithm】林轩田机器学习基石
摘要:直接跳过第一讲。从第二讲Perceptron开始,记录这一讲中几个印象深的点:1. 之前自己的直觉一直对这种图理解的不好,老按照x、y去理解。a) 这种图的每个坐标代表的是features;features的值是有物理意义的。b) 而圈圈和叉叉是为了标注不同的样本(正样本 负样本),即label;为... 阅读全文

posted @ 2015-06-12 15:31 承续缘 阅读(3007) 评论(1) 推荐(0) 编辑

跟林轩田的机器学习课程
摘要:前天刷完了leetcode的150题~算是完成了一个节点~后续每天回顾下几题,保持感觉~机器学习这块,感觉自己在实际上线的项目中也用过,各种算法也了解。但是面试时让我一点儿不差的推导出来SVM,真是做不到,就是基础不牢固。决定跟一下台大林轩田的机器学习课程,继续夯实基础为求职工作准备。每跟完一个章节... 阅读全文

posted @ 2015-06-11 20:30 承续缘 阅读(586) 评论(0) 推荐(0) 编辑

上一页 1 2

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

点击右上角即可分享
微信分享提示