07 2019 档案

摘要:Q1首先要做什么 本章将在随后的课程中讲误差分析,然后怎样用一个更加系统性非方法,从一堆不同的方法中,选取合适的那一个。 Q2误差分析 构建一个学习算法的推荐方法为: (1)从一个简单的能快速实现的算法开始,实现该算法并用交叉验证集数据测试这个算法; (2)绘制学习曲线,决定是增加更多数据,或者添加 阅读全文
posted @ 2019-07-31 22:38 你的雷哥 阅读(419) 评论(0) 推荐(0) 编辑
摘要:Q1决定下一步该干什么 当系统的效果很差时,你可能考虑到收集更多的样本,也可能: (1)尝试减少特征的数量; (2)尝试获得更多的特征; (3)尝试增加多项式特征; (4)尝试减少正则化程度λ; (5)尝试增加正则化程度λ。 如果做决策将是本章的内容。而不是盲目的选择一种策略。 Q2评估一个假设 将 阅读全文
posted @ 2019-07-31 21:56 你的雷哥 阅读(224) 评论(0) 推荐(0) 编辑
摘要:网上的一个介绍神经网路算法的反向传播算法很好的例子。原文链接 说到神经网络,大家看到这个图应该不陌生: 这是典型的三层神经网络的基本构成,Layer L1是输入层,Layer L2是隐含层,Layer L3是隐含层,我们现在手里有一堆数据{x1,x2,x3,...,xn},输出也是一堆数据{y1,y 阅读全文
posted @ 2019-07-31 18:58 你的雷哥 阅读(1007) 评论(0) 推荐(0) 编辑
摘要:在我们接触神经网络过程中,很容易看到就是这样一个式子,g(wx+b),其中w,x均为向量.比如下图所示: 加入激活函数为g(x),我们就可以用公式g(w1x1+w2x2+b)(注:1,2均为下标,公众号很难打,下面所有的公式均是)来表示神经元的输出。 其中b为神经元的偏置.那么w,b这些参数的作用有 阅读全文
posted @ 2019-07-30 22:38 你的雷哥 阅读(1168) 评论(0) 推荐(0) 编辑
摘要:Q1代价函数 (1)假设神经网络的训练样本有m个,每一个包含一组输入x和一组输出信号y,L表示神经网络的层数,Sl表示每一层的神经元个数,SL代表最后一层中处理单元的个数。 则代价函数为(同样不对θ0正则化): Q2反向传播算法 误差计算公式,注意第一列作为输入是没有误差的。 前向传播算法: 用δ表 阅读全文
posted @ 2019-07-30 22:29 你的雷哥 阅读(720) 评论(0) 推荐(0) 编辑
摘要:Q1非线性假设 (1)无论线性回归还是逻辑回归当特征量太多时,计算的负荷会非常大。如50x50像素有2500特征,如果两两组合将会有25002/2个(接近300万个特征)。普通的线性回归和逻辑回归模型不能有效处理这么多特征,这时候需要用神经网络了。 Q2神经元和大脑 大脑的某一块可以经过学习,学会其 阅读全文
posted @ 2019-07-30 18:16 你的雷哥 阅读(531) 评论(0) 推荐(0) 编辑
摘要:Q1过拟合的问题 训练集表现良好,测试集表现差。鲁棒性差。以下是两个例子(一个是回归问题,一个是分类问题) 第一个图明显欠拟合,第三个图过度拟合,拟合函数复杂,虽然对于训练集具有很低的代价函数,但是应用到新样本的能力并不高,图二则是两者的均衡。 解决办法: (1)丢弃一些不能帮助我们正确预测的特征。 阅读全文
posted @ 2019-07-28 18:51 你的雷哥 阅读(230) 评论(0) 推荐(0) 编辑
摘要:Q1分类问题 回归问题的输出可能是很大的数,而在分类问题中,比如二分类,希望输出的值是0或1,如何将回归输出的值转换成分类的输出0,1成为关键。注意logistics回归又称 逻辑回归,但他是分类问题,而不是回归问题。 Q2假说表示 其中: sigmoid函数 hθ(x)的作用是,对于给定的输入变量 阅读全文
posted @ 2019-07-28 16:03 你的雷哥 阅读(337) 评论(0) 推荐(0) 编辑
摘要:Q1多维特征 上图中列数即为特征的个数,行数是样本数。函数假设如下: 其中x0=1。 Q2多变量梯度下降 和单变量的损失函数相同: 其中, 求导迭代如下: Q3梯度下降法实践1-特征缩放 特征之间的尺度变化相差很大(如一个是0-1000,一个是0-5),梯度算法需要非常多次的迭代才能收敛,如下图所示 阅读全文
posted @ 2019-07-25 22:07 你的雷哥 阅读(409) 评论(0) 推荐(0) 编辑
摘要:学过线性代数的人,这节课内容完全没必要看 Q1矩阵和向量 几行几列即为矩阵。Aij表示第i行第j列。 只有一行或者一列的称为向量,向量是一种特殊矩阵。一般向量指的是列向量。 Q2加法和标量乘法 加法:元素对应相加。 标量乘法:标量和矩阵每一个元素相乘。 Q3矩阵向量乘法 Q4矩阵乘法 要求:第一个矩 阅读全文
posted @ 2019-07-25 21:24 你的雷哥 阅读(364) 评论(0) 推荐(0) 编辑
摘要:Q1模型表示 Q2:代价函数 对于回归问题常用的代价函数是平方误差代价函数: 我们的目标选取合适的参数Θ使得误差函数最小,即直线最逼近真实情况。 Q3:代价函数的直观理解(一个参数) Q4:代价函数的直观理解(两个参数) Q5梯度下降 Q6梯度下降的直观理解 (1)梯度下降法可以最小化任何代价函数, 阅读全文
posted @ 2019-07-24 12:59 你的雷哥 阅读(380) 评论(0) 推荐(0) 编辑
摘要:前言:开启大约二十天的机器学习时光,以吴恩达的机器学习课程为主线同时结合网上其他的资源进行学习,每天对学到的东西在博客上记录下来,以备复习。部分内容转载自这位博主:https://www.cnblogs.com/ys99/p/9223859.html Q1:机器学习的定义? (1)一种机器学习的定义 阅读全文
posted @ 2019-07-23 17:33 你的雷哥 阅读(567) 评论(0) 推荐(0) 编辑
摘要:2019年7月15号到18号来到沈阳参加了大约四天的夏令营,下面简单的描述一下这次经历吧。 也是在夏令营期间知道入营情况是三百多进八十这个样子。最后来的人大约是六十人,。然后自己成功入营,十五号早上从开封高铁站出发坐了四五个小时的高铁来到北京西站,之后又到南站转高铁经过四五个小时到沈阳。要记得沈阳计 阅读全文
posted @ 2019-07-20 16:25 你的雷哥 阅读(1859) 评论(21) 推荐(1) 编辑
摘要:高等数学: 试题:https://blog.csdn.net/cmavb/article/details/74340435 基础知识:https://wenku.baidu.com/view/e1fa4d22a55177232f60ddccda38376bae1fe04c.html?sxts=156 阅读全文
posted @ 2019-07-11 17:45 你的雷哥 阅读(861) 评论(0) 推荐(0) 编辑
摘要:一、实验目的:利用灰度共生矩阵的二次统计量特征和最近邻法对纹理图像进行分类 二、实验内容:对8类纹理图像利用灰度共生矩阵的二次统计量特征和最近邻法进行分类,其中每类纹理图像有8幅,总共64幅,每幅图像的大小为200x200。实验中将各类纹理图像样本按数量随机等分成两部分作为训练、测试样本集,按照这种 阅读全文
posted @ 2019-07-10 20:39 你的雷哥 阅读(1368) 评论(1) 推荐(0) 编辑

点击右上角即可分享
微信分享提示