摘要:
十七、大规模机器学习(Large Scale Machine Learning) 17.1 大型数据集的学习 17.2 随机梯度下降法 17.3 小批量梯度下降 17.4 随机梯度下降收敛 17.5 在线学习 17.6 映射化简和数据并行 十八、应用实例:图片文字识别(Application Exa 阅读全文
摘要:
十五、异常检测(Anomaly Detection) 15.1 问题的动机 15.2 高斯分布 15.3 算法 15.4 开发和评价一个异常检测系统 15.5 异常检测与监督学习对比 15.6 选择特征 15.7 多元高斯分布(选修) 15.8 使用多元高斯分布进行异常检测(选修) 十六、推荐系统( 阅读全文
摘要:
十、应用机器学习的建议(Advice for Applying Machine Learning) 10.1 决定下一步做什么 10.2 评估一个假设 10.3 模型选择和交叉验证集 10.4 诊断偏差和方差 10.5 正则化和偏差/方差 10.6 学习曲线 10.7 决定下一步做什么 十一、机器学 阅读全文
摘要:
十三、聚类(Clustering) 13.1 无监督学习:简介 13.2 K 均值算法 13.3 优化目标 13.4 随机初始化 13.5 选择聚类数 十四、降维(Dimensionality Reduction) 14.1 动机一:数据压缩 14.2 动机二:数据可视化 14.3 主成分分析问题 阅读全文
摘要:
十二、支持向量机(Support Vector Machines) 12.1 优化目标 12.2 大边界的直观理解 12.3 数学背后的大边界分类(选修) 12.4 核函数1 12.5 核函数2 12.6 使用支持向量机 第7周 ===== 十二、支持向量机(Support Vector Machi 阅读全文
摘要:
九、神经网络的学习(Neural Networks: Learning) 9.1 代价函数 9.2 反向传播算法 9.3 反向传播算法的直观理解 9.4 实现注意:展开参数 9.5 梯度检验 9.6 随机初始化 9.7 综合起来 9.8 自主驾驶 第5周 ===== 九、神经网络的学习(Neural 阅读全文
摘要:
第八、神经网络:表述(Neural Networks: Representation) 8.1 非线性假设 8.2 神经元和大脑 8.3 模型表示1 8.4 模型表示2 8.5 样本和直观理解1 8.6 样本和直观理解II 8.7 多类分类 第4周 ===== 第八、神经网络:表述(Neural N 阅读全文
摘要:
六、逻辑回归(Logistic Regression) 6.1 分类问题 6.2 假说表示 6.3 判定边界 6.4 代价函数 6.5 简化的成本函数和梯度下降 6.6 高级优化 6.7 多类别分类:一对多 七、正则化(Regularization) 7.1 过拟合的问题 7.2 代价函数 7.3 阅读全文
摘要:
四、多变量线性回归(Linear Regression with Multiple Variables) 4.1 多维特征 4.2 多变量梯度下降 4.3 梯度下降法实践1 特征缩放 4.4 梯度下降法实践2 学习率 4.5 特征和多项式回归 4.6 正规方程 4.7 正规方程及不可逆性(可选) 五 阅读全文
摘要:
一、引言(Introduction) 1.1 欢迎 1.2 机器学习是什么? 1.3 监督学习 1.4 无监督学习 二、单变量线性回归(Linear Regression with One Variable) 2.1 模型表示 2.2 代价函数 2.3 代价函数的直观理解I 2.4 代价函数的直观理 阅读全文
摘要:
17年开始,网上的机器学习教程逐渐增多,国内我所了解的就有网易云课堂、七月、小象学院和北风。他们的课程侧重点各有不同,有些侧重理论,有些侧重实践,结合起来学习事半功倍。但是论经典,还是首推吴恩达的机器学习课程。 吴大大14年在 "coursera" 的课程通俗易懂、短小精悍,在讲解知识点的同时,还会 阅读全文