随笔分类 - 机器学习
摘要:1、神经网络是什么? 神经网络由输入层、隐藏层和输出层组成,长相如下图所示。对于一些问题来说用线性回归可以解决,但有些问题用线性很麻烦,而用神经网络就很轻松了,各有各的优缺点。对于神经网络来说,是一种非线性的,输入参数,通过隐藏层输出结果。这隐藏层中,每一层都是根据前一层得到的,在进行wx+b运算后
阅读全文
摘要:由于本人知识有限,如有写错的地方,还请谅解并指出,谢谢! 1、梯度下降 预备知识 目标函数:f(x) = w*x+b ,在给定的训练集中有(X,Y),X为输入参数,Y为输出结果。我们需要找到一组w和b,使的w*x+b 的值接近Y,并且误差最小,那么f(x) = w*x+b 就是目标函数。根据已知的参
阅读全文
摘要:1、本次搭建的神经网络模型具有一个隐藏层的二分类 2、需要的激活函数有tanh,sigmoid 3、用了正向传播和反向传播。 4、计算交叉熵损失。 模型如下: 用到的数学公式: 建立神经网络的一般方法是: 1、定义神经网络结构(比如输入单元、隐藏单元等等) 2、初始化模型的参数 3、循环(迭代次数)
阅读全文
摘要:Digit Recognizer 在kaggle网站中,competitions里点击getting started会有一个Digit Recognizer(手写数字识别)的题目,很适合入门。 The data files train.csv and test.csv contain gray-sc
阅读全文
摘要:Application: Photo OCR 选B 选D 选AC 选A 选AB
阅读全文
摘要:Application example:Photo OCR Problem description and pipeline 图像文字识别应用所作的事是,从一张给定的图片中识别文字。这比从一份扫描文档中识别文字要复杂的多。 为了完成这样的工作,需要采取如下步骤: 1. 文字侦测(Text detec
阅读全文
摘要:Large Scale Machine Learning 选B 选CD 选CD 选AC 不确定
阅读全文
摘要:Large scale machine learning Learning with large datasets 如果我们有一个低方差的模型,增加数据集的规模可以帮助你获得更好的结果。我们应该怎样应对一个有 100 万条记录的训练集? 以线性回归模型为例,每一次梯度下降迭代,我们都需要计算训练集的
阅读全文
摘要:estimateGaussian.m selectThreshold.m cofiCostFunc.m
阅读全文
摘要:week9 || Anomaly Detection 找出异常数据,选CD 需要减小,选B 选C 选CD 选A Week9 || Recommender Systems 选AD 选BD 选A 选AC 选AB
阅读全文
摘要:Anomaly detection(异常检测) Problem motivation 给定数据集,先假设它们都是正常的,如果有一新的数据,想知道是不是异常,即这个测试数据不属于该组数据的几率如何。 在上图中,在蓝色圈内的数据属于该组数据的可能性较高,而越是偏远的数据,其属于该组数据的可能性就越低。
阅读全文
摘要:pca.m projectData.m recoverData.m computeCentroids.m findClosestCentroids.m kMeansInitCentroids.m
阅读全文
摘要:Week8 || Unsupervised Learning 选择适合用“K-均值算法”的,选AB C、预测降雨量,监督问题 D、预测销售情况,监督问题 选C K-均值算法的计算过程,选CD 选择A 选择AC week8 || Principal Component Analysis 选AB 选D
阅读全文
摘要:Clustering Unsupervised learning introduction 什么是非监督学习呢? 在一个典型的监督学习中,我们有一个有标签的训练集,我们的目标是找到能够区分正样本和负样本的决策边界,在这里的监督学习中,我们有一系列标签,我们需要据此拟合一个假设函数。 与此不同的是,在
阅读全文
摘要:gaussianKernel.m dataset3Params.m processEmail.m emailFeatures.m
阅读全文
摘要:Support Vector Machines 欠拟合,增大C,减小δ2,所以选C 选D 安全因子,选BC 欠拟合问题,选AB C,减少训练数据更会欠拟合 D,逻辑回归是凸函数,不存在局部最小 选CD A错误 B应该训练K个
阅读全文
摘要:Support Vector Machines(支持向量机) Optimization objective 与逻辑回归和神经网络相比,支持向量机,或者简称 SVM。在学习复杂的非线性方程时提供了一种更为清晰,更加强大的方式。 这是逻辑回归里的,右边是S型激励函数,我们用z表示θTx 但y = 1 和
阅读全文
摘要:linearRegCostFunction.m learningCurve.m validationCurve.m
阅读全文
摘要:Week6 || Advice for Applying Machine Learning 高方差,选B 出现过拟合问题,选BD 出现欠拟合问题,选BC 选AC 一般用 6 2 2来分,随机打乱数据是很有必要的。 选择BD A、出现高偏差,增加训练数据会增加测试误差 C、明显错的 week6 ||
阅读全文
摘要:Advice for applying machine learning Deciding what to try next 当我们运用训练好了的模型来预测未知数据的时候发现有较大的误差,我们下一步可以做什么? 1、获得更多的训练实例(通常是有用的,但代价大,一把使用下面的方法) 2、尝试减少特征的
阅读全文