摘要: 1 奥卡姆剃刀原则 使用模型时尽量使用简单的模型。从简单的模型开始做起。 2 避免抽样偏差 所谓抽样偏差,是指训练数据集和测试数据集不是由同一个分布产生的。 比如验证集是从训练集中随机取一部分得到的,但是测试集却是时间轴靠后的数据,这样即使在验证集上做的很好,测试的时候却可能没那么好。 VC理论中, 阅读全文
posted @ 2017-02-14 14:30 coldyan 阅读(320) 评论(0) 推荐(0) 编辑
摘要: 本节涉及的知识点: (1)用验证来选择参数和模型; (2)验证的流程; (3)验证集大小的选择; (4)留一交叉验证的流程; (5)留一交叉验证的理论保证; (6)留一交叉验证的缺点; (7)k折交叉验证的流程。 1 验证 我们可以用验证来从如下的组合中做选择: 验证的流程是:先划分训练集Dt和验证 阅读全文
posted @ 2017-02-09 17:47 coldyan 阅读(452) 评论(0) 推荐(0) 编辑
摘要: 本节涉及的知识点包括: (1)所谓正则化,就是在原来的假设空间上加上一定限制条件; (2)推导线性回归中引入L2正则; (3)带正则化约束条件的问题 等价于 无约束的加正则项的augmented error; (4)VC维解释正则的好处; (5)选择一般正则项的三个原则; (6)L1正则和L2正则的 阅读全文
posted @ 2017-02-08 19:56 coldyan 阅读(701) 评论(0) 推荐(0) 编辑
摘要: 1 产生过拟合的三个原因 过拟合就是Ein很小,而Eout很大的情况。产生过拟合的三个原因是,使用了过大的VC维,噪声,数据量太小: 2 如何解决过拟合 (1)从简单的model开始做; (2)数据清理/裁剪: (3)收集更多的数据; (4)数据提示; (5)正则化(后面介绍); (6)验证(后面介 阅读全文
posted @ 2017-01-24 13:38 coldyan 阅读(326) 评论(0) 推荐(0) 编辑
摘要: 1 非线性变换 所谓非线性变换,就是把原始的特征做非线性变换,得到一个新的特征,使用这个新的特征来做线性的分类,则对应到原始的特征空间中,相当于做了非线性的分类。非线性变换的好处是,算法将有更多的选择,Ein可以做的更低。 例如使用二次变换: 则Z空间中的一个直线分类边界,对应到原来空间中是一个二次 阅读全文
posted @ 2017-01-24 11:21 coldyan 阅读(4389) 评论(0) 推荐(0) 编辑
摘要: 1 用回归来做分类 到目前为止,我们学习了线性分类,线性回归,逻辑回归这三种模型。以下是它们的pointwise损失函数对比(为了更容易对比,都把它们写作s和y的函数,s是wTx,表示线性打分的分数): 把这几个损失函数画在一张图上: 如果把逻辑回归的损失函数ce做一个适当的放缩,则可以得到下图: 阅读全文
posted @ 2017-01-21 20:00 coldyan 阅读(533) 评论(0) 推荐(0) 编辑
摘要: 不包含jiuzhang ladders中出现过的题。如出现多个方法,则最后一个方法是最优解。 目录: 1 String 2 Two pointers 3 Array 4 DFS && BFS 5 Math 6 Dynamic Programming 7 Data Structure 8 Binary 阅读全文
posted @ 2017-01-20 14:18 coldyan 阅读(545) 评论(0) 推荐(0) 编辑
摘要: 1 模型定义 错误衡量使用平方错误: 注:这里Eout计算是在考虑噪声的情况下,可以将x和y看作满足一个联合概率分布。 2 线性回归算法 先把训练集误差Ein推导成矩阵形式: 即: 可以证明Ein关于w是连续,可微的凸函数,因此最小的点就在梯度为0的地方,那么剩下的问题就是来求梯度为0的w: 先把E 阅读全文
posted @ 2017-01-19 08:56 coldyan 阅读(568) 评论(0) 推荐(0) 编辑
摘要: 1 有噪声情况下的机器学习过程 由一个条件概率来产生数据的标签y,相当于一个确定函数加上噪声: 2 错误衡量方式 这里我们介绍pointwise的错误衡量方式。所谓point wise就是可以对于一个点计算它的错误。 常见的有两种pointwise错误衡量方式:0/1错误和平方错误: 、 01错误用 阅读全文
posted @ 2017-01-14 23:50 coldyan 阅读(2074) 评论(0) 推荐(0) 编辑
摘要: 1 VC维的定义 VC维其实就是第一个break point的之前的样本容量。标准定义是:对一个假设空间,如果存在N个样本能够被假设空间中的h按所有可能的2的N次方种形式分开,则称该假设空间能够把N个样本打散;假设空间的VC维就是它能打散的最大样本数目N。若对任意N,总存在一组样本使得假设空间能将它 阅读全文
posted @ 2017-01-03 21:13 coldyan 阅读(1768) 评论(0) 推荐(0) 编辑