摘要: 线性回归。 从本节课开始,我会适当的结合一些《机器学习实战》中的相关知识点对各个模型做一个更加全面的归纳和总结。 继续试着用加权(打分)的方式对每一个输入x进行计算,得出的线性回归的模型为h(x)=WTX。衡量的目标是找一个向量W使得squared error最小。由于Ein≈Eout,所以我们还是 阅读全文
posted @ 2016-09-27 19:31 cyoutetsu 阅读(743) 评论(0) 推荐(0) 编辑
摘要: 本节课主要讲述当输入的data中含有噪声的时候,会不会对整个机器学习过程产生影响。 还是以从罐子里取弹珠为例: 如果我们将即将要取出来的弹珠动态概率化,弹珠的颜色是有一定概率变来变去的,也就是说在某一时刻,我们只知道取出来的弹珠有百分之多少的概率是某一种颜色,而不是直接确定地知道即将取出来的弹珠是什 阅读全文
posted @ 2016-09-27 15:44 cyoutetsu 阅读(392) 评论(0) 推荐(0) 编辑
摘要: 通过上节所学,有如下总结,从而大大的简化了成长函数。 在VC Bond理论中,可以有如下的替换: 由此得出可以让机器学习有效果的几个条件: 1.mH(N)在k有break point 2.N足够大 3.可以算出使得Ein最小的g VC Dimension is the formal name of 阅读全文
posted @ 2016-09-27 14:42 cyoutetsu 阅读(565) 评论(0) 推荐(0) 编辑
摘要: 本节课主要讲在机器学习中,机器如何做到举一反三。 上图可以得出结论,当N超过k的时候,mH的数量会越来越少。对未来成长函数的样子加了一个限制。 mH的数量其实是有一个上限的,这个上限就是关于N的一个多项式。引出定义bonding function B(N,k) 已知上限函数的break point是 阅读全文
posted @ 2016-09-27 13:47 cyoutetsu 阅读(893) 评论(0) 推荐(0) 编辑
摘要: 我们需要在train集上表现的好的同时,还要在test集上也表现的好。那么备选hypothesis的数量M在这中间是起的什么作用呢? M的两种可能性: M很小的时候,坏事情发生的概率很小;但是hypothesis得选择就很小了,不见得能找到很小的Ein。 M很大的时候,选择就多了,我们能保证Ein很 阅读全文
posted @ 2016-09-27 11:31 cyoutetsu 阅读(628) 评论(0) 推荐(0) 编辑
摘要: 第一讲主要讲述了机器学习好像对已输入的data以外的数据没有什么办法进行学习。 通过从罐子里取弹珠的例子来引出霍夫丁不等式。 如果样本足够大的时候,sample中的比例就是population中的比例。 下图指明了霍夫丁不等式对于机器学习有什么意义: 输入的数据就相当于随机在罐子里抓的一把弹珠,也就 阅读全文
posted @ 2016-09-27 10:10 cyoutetsu 阅读(557) 评论(0) 推荐(0) 编辑
摘要: 根据y的不同,可以分成以下分类: 1.二元分类问题。 2.多元分类问题。 3.回归问题。(y是一个连续型变量) 4.结构化学习问题。(自然语言处理) 根据有没有y,可以分成监督式学习,非监督式学习,半监督式学习和增强学习。 根据x,y不同的形式,可以有以下分类: batch:成批的输入data的学习 阅读全文
posted @ 2016-09-27 09:20 cyoutetsu 阅读(187) 评论(0) 推荐(0) 编辑
摘要: 本节课主要讲述机器学习怎么解决是非题。 介绍系列课程的第一个模型:perceptron(感知器) 把每一个sample的各种feature用一个向量来表示,也就是下图的x,以上图为例,x1=age, x2=annual salary, x3=year in job, x4=current detb, 阅读全文
posted @ 2016-09-27 07:05 cyoutetsu 阅读(450) 评论(0) 推荐(0) 编辑