飞鸟各投林

导航

2016年4月27日 #

斯坦福第十七课:大规模机器学习(Large Scale Machine Learning)

摘要: 17.1 大型数据集的学习 17.2 随机梯度下降法 17.3 微型批量梯度下降 17.4 随机梯度下降收敛 17.5 在线学习 17.6 映射化简和数据并行 17.1 大型数据集的学习 17.2 随机梯度下降法 17.3 微型批量梯度下降 17.4 随机梯度下降收敛 17.5 在线学习 17.6 阅读全文

posted @ 2016-04-27 23:10 飞鸟各投林 阅读(391) 评论(0) 推荐(0) 编辑

斯坦福第十六课:推荐系统(Recommender Systems)

摘要: 16.1 问题形式化 16.2 基于内容的推荐系统 16.3 协同过滤 16.4 协同过滤算法 16.5 矢量化:低秩矩阵分解 16.6 推行工作上的细节:均值归一化 16.1 问题形式化 16.2 基于内容的推荐系统 16.3 协同过滤 16.4 协同过滤算法 16.5 矢量化:低秩矩阵分解 16 阅读全文

posted @ 2016-04-27 23:01 飞鸟各投林 阅读(995) 评论(0) 推荐(0) 编辑

斯坦福第十五课:异常检测(Anomaly Detection)

摘要: 15.1 问题的动机 15.2 高斯分布 15.3 算法 15.4 开发和评价一个异常检测系统 15.5 异常检测与监督学习对比 15.6 选择特征 15.7 多元高斯分布(可选) 15.8 使用多元高斯分布进行异常检测(可选) 15.1 问题的动机 15.2 高斯分布 15.3 算法 15.4 开 阅读全文

posted @ 2016-04-27 22:44 飞鸟各投林 阅读(424) 评论(0) 推荐(0) 编辑

斯坦福第十四课:降维(Dimensionality Reduction)

摘要: 14.1 动机一:数据压缩 14.2 动机二:数据可视化 14.3 主成分分析问题 14.4 主成分分析算法 14.5 选择主成分的数量 14.6 重建的压缩表示 14.7 主成分分析法的应用建议 14.1 动机一:数据压缩 14.2 动机二:数据可视化 14.3 主成分分析问题 14.4 主成分分 阅读全文

posted @ 2016-04-27 22:28 飞鸟各投林 阅读(258) 评论(0) 推荐(0) 编辑

斯坦福第十三课:聚类(Clustering)

摘要: 13.1 无监督学习:简介 13.2 K-均值算法 13.3 优化目标 13.4 随机初始化 13.5 选择聚类数 13.1 无监督学习:简介 在这个视频中,我将开始介绍聚类算法。这将是一个激动人心的时刻,因为这是我们学 习的第一个非监督学习算法。我们将要让计算机学习无标签数据,而不是此前的标签数据 阅读全文

posted @ 2016-04-27 22:08 飞鸟各投林 阅读(401) 评论(1) 推荐(0) 编辑

斯坦福第十二课:支持向量机(Support Vector Machines)

摘要: 12.1 优化目标 12.2 大边界的直观理解 12.3 数学背后的大边界分类(可选) 12.4 核函数 1 12.5 核函数 2 12.6 使用支持向量机 12.1 优化目标 到目前为止,你已经见过一系列不同的学习算法。在监督学习中,许多学习算法的性能都非常类似,因此,重要的不是你该选择使用学习算 阅读全文

posted @ 2016-04-27 21:40 飞鸟各投林 阅读(819) 评论(1) 推荐(0) 编辑

斯坦福第十一课:机器学习系统的设计(Machine Learning System Design)

摘要: 11.1 首先要做什么 11.2 误差分析 11.3 类偏斜的误差度量 11.4 查全率和查准率之间的权衡 11.5 机器学习的数据 11.1 首先要做什么 在接下来的视频中,我将谈到机器学习系统的设计。这些视频将谈及在设计复杂的机器 学习系统时,你将遇到的主要问题。同时我们会试着给出一些关于如何巧 阅读全文

posted @ 2016-04-27 20:12 飞鸟各投林 阅读(448) 评论(0) 推荐(0) 编辑

斯坦福第十课:应用机器学习的建议(Advice for Applying Machine Learning)

摘要: 10.1 决定下一步做什么 10.2 评估一个假设 10.3 模型选择和交叉验证集 10.4 诊断偏差和方差 10.5 归一化和偏差/方差 10.6 学习曲线 10.7 决定下一步做什么 10.1 决定下一步做什么 到目前为止,我们已经介绍了许多不同的学习算法,如果你一直跟着这些视频的进度学习,你会 阅读全文

posted @ 2016-04-27 17:29 飞鸟各投林 阅读(449) 评论(0) 推荐(0) 编辑

斯坦福第九课:神经网络的学习(Neural Networks: Learning)

摘要: 9.1 代价函数 9.2 反向传播算法 9.3 反向传播算法的直观理解 9.4 实现注意:展开参数 9.5 梯度检验 9.6 随机初始化 9.7 综合起来 9.8 自主驾驶 9.1 代价函数 首先引入一些便于稍后讨论的新标记方法: 假设神经网络的训练样本有 m 个,每个包含一组输入 x 和一组输出信 阅读全文

posted @ 2016-04-27 17:00 飞鸟各投林 阅读(512) 评论(0) 推荐(0) 编辑

斯坦福第八课:神经网络表述(Neural Networks: Representation)

摘要: 8.1 非线性假设 8.2 神经元和大脑 8.3 模型表示 1 8.4 模型表示 2 8.5 特征和直观理解 1 8.6 样本和直观理解 II 8.7 多类分类 8.1 非线性假设 我们之前学的,无论是线性回归还是逻辑回归都有这样一个缺点,即当特征太多时,计 算的负荷会非常大。 下面是一个例子: 当 阅读全文

posted @ 2016-04-27 15:50 飞鸟各投林 阅读(403) 评论(0) 推荐(0) 编辑

斯坦福第七课:正则化(Regularization)

摘要: 7.1 过拟合的问题 7.2 代价函数 7.3 正则化线性回归 7.4 正则化的逻辑回归模型 7.1 过拟合的问题 如果我们有非常多的特征,我们通过学习得到的假设可能能够非常好地适应训练集(代价函数可能几乎为 0),但是可能会不能推广到新的数据。 下图是一个回归问题的例子: 第一个模型是一个线性模型 阅读全文

posted @ 2016-04-27 15:02 飞鸟各投林 阅读(623) 评论(0) 推荐(0) 编辑

斯坦福第六课:逻辑回归(Logistic Regression)

摘要: 6.1 分类问题 6.2 假说表示 6.3 判定边界 6.4 代价函数 6.5 简化的成本函数和梯度下降 6.6 高级优化 6.7 多类分类:一个对所有 6.1 分类问题 在分类问题中,我们尝试预测的是结果是否属于某一个类(例如正确或错误)。分类问题的例子有:判断一封电子邮件是否是垃圾邮件;判断一次 阅读全文

posted @ 2016-04-27 14:42 飞鸟各投林 阅读(594) 评论(0) 推荐(0) 编辑

斯坦福第五课:Octave 教程(Octave Tutorial)

摘要: 5.1 基本操作 5.2 移动数据 5.3 计算数据 5.4 绘图数据 5.5 控制语句:for,while,if 语句 5.6 矢量化 5.7 工作和提交的编程练习 5.1 基本操作 5.2 移动数据 5.3 计算数据 5.4 绘图数据 5.5 控制语句:for,while,if 语句 5.6 矢 阅读全文

posted @ 2016-04-27 14:05 飞鸟各投林 阅读(834) 评论(0) 推荐(0) 编辑

斯坦福第四课:多变量线性回归(Linear Regression with Multiple Variables)

摘要: 4.1 多维特征 4.2 多变量梯度下降 4.3 梯度下降法实践 1-特征缩放 4.4 梯度下降法实践 2-学习率 4.5 特征和多项式回归 4.6 正规方程 4.7 正规方程及不可逆性(可选) 4.1 多维特征 目前为止,我们探讨了单变量/特征的回归模型,现在我们对房价模型增加更多的特征, 例如房 阅读全文

posted @ 2016-04-27 13:25 飞鸟各投林 阅读(408) 评论(0) 推荐(0) 编辑

斯坦福第三课:线性代数回顾(Linear Algebra Review)

摘要: 3.1 矩阵和向量 3.2 加法和标量乘法 3.3 矩阵向量乘法 3.4 矩阵乘法 3.5 矩阵乘法的性质 3.6 逆、转置 3.1 矩阵和向量 如图:这个是 4×2 矩阵,即 4 行 2 列,如 m 为行,n 为列,那么 m×n 即 4×2 矩阵的维数即行数×列数 矩阵元素(矩阵项): Aij 指 阅读全文

posted @ 2016-04-27 12:40 飞鸟各投林 阅读(661) 评论(0) 推荐(0) 编辑