10 2017 档案
摘要:看了上一篇内容之后,相信对K近邻算法有了一个清晰的认识,今天的内容——手写数字识别是对上一篇内容的延续,这里也是为了自己能更熟练的掌握k-NN算法。 我们有大约2000个训练样本和1000个左右测试样本,训练样本所在的文件夹是trainingDigits,测试样本所在的文件夹是testDigits。
阅读全文
摘要:前一周学习了一些理论的知识,虽然懂了原理,但感觉真要写起代码来还是摸不着头脑,所以接下来的几天都打算在代码方面下一番功夫。由于接触python不久,且能力有限,难免有些错误的或者理解不到位的地方,希望读者不吝指正! K-近邻算法(k-NN)的基本原理:存在一个样本数据集合,也叫训练样本集,并且样本集
阅读全文
摘要:今天的这部分内容比较简单,没有复杂的数学公式,学了这一周多的理论,接下来的几天准备python实战啦!先来看今天的部分吧。 一、纲要 初学者设计机器学习系统的建议 误差分析 偏斜类的定义及误差度量 二、内容详述 1、初学者设计机器学习系统的建议 在部分内容中,Andrew Ng老师给出的建议是:初学
阅读全文
摘要:一、纲要 纠正较大误差的方法 模型选择问题之目标函数阶数的选择 模型选择问题之正则化参数λ的选择 学习曲线 二、内容详述 1、纠正较大误差的方法 当我们运用训练好了的模型来做预测时,发现会有较大的误差,这时我们有哪些解决方法呢? (1)获得更多的训练集 (2)减少特征的数量 (3)增加特征的数量 (
阅读全文
摘要:一、纲要 神经网络代价函数 反向传播(BackPropagation)算法 梯度检验 参数随机初始化 总结 二、内容详述 1、神经网络代价函数 在逻辑回归中,我们的输出只有一个变量,是标量,就是一个y,但是在神经网络中我们可以有K个输出量,所以神经网络中的输出y是个K*1的向量,所以这里需要在逻辑回
阅读全文
摘要:一、纲要 神经网络模型表示 神经网络的直观理解 神经网络做多类分类 二、内容详述 1、神经网络模型表示 这里就不再描述大脑的神经网络和神经元了,我们直接看神经网络的模型。我们先从最简单的神经网络开始,即只有input layer和output layer 这里的x0叫做偏置单元,跟之前一样,为一常数
阅读全文
摘要:版权声明:本文为博主原创文章,转载请指明转载地址 一、纲要 欠拟合和过拟合 代价函数正则化 正则化线性回归 正则化逻辑回归 二、内容详述 1、欠拟合和过拟合 欠拟合,也叫高偏差,就是没有很好的拟合数据集的情况。如下图中的左图所示 过拟合,也叫高方差,就是虽然高阶多项式可以完美的拟合所有的数据,但会导
阅读全文
摘要:一、纲要 逻辑回归 决策边界 拟合逻辑回归的参数θ 多类别分类问题(Multiclass classification) 二、内容详述 1、逻辑回归 逻辑回归,实际上就是一种分类算法,它的性质是输出值应该在[0,1]这个区间,所以对于逻辑回归问题我们的函数h就不再跟前面线性回归的函数一样的形式了,我
阅读全文
摘要:一、纲要 多变量线性回归 特征缩放与均值归一化 学习速率α对梯度下降法的影响 正规方程 二、内容详述 1、多变量线性回归 上一篇我们看到了单变量的线性回归,只有一个变量x,,这里如果有多个变量的话,该方程就变为,我们可以假设X0=1,所以上式变为。那么多变量的代价函数为,我们可以得出多变量的梯度下降
阅读全文
摘要:一、纲要 梯度下降法的可视化理解 梯度下降法的公式 参数的更新方法 梯度下降算法最小化代价函数 二、内容介绍 1、梯度下降法的可视化理解 在上篇文章中我说了代价函数的最小化就是要寻找该函数的最小值,或者说是局部最小值。如上图,我们假设红色的为两个山峰,那么蓝色的就是我们要找的最小值。这个过程我们可以
阅读全文
摘要:一、纲要 机器学习的定义 监督学习(supervised learning)和无监督学习(unsupervised learning) 回归问题(regression problem)与分类问题(classification problem) 鸡尾酒宴问题 单变量线性回归问题 二、概念介绍 1.什么
阅读全文