摘要:
斯坦福大学机器学习斯坦福大学机器学习第九课“神经网络的学习(Neural Networks: Learning)”学习笔记,本次课程主要包括8部分:1) Cost function(代价函数)2) Backpropagation algorithm(BP算法 or 反向传播算法)3) Backpropagation intuition(BP算法的直观解释)4) Implementation note: Unrolling parameters(实现时的注意点:展开参数)5) Gradient checking(梯度下降算法的验证)6) Random initialization(随机初始化)7 阅读全文
摘要:
斯坦福大学机器学习第八课“神经网络的表示(Neural Networks: Representation)”学习笔记,本次课程主要包括7部分:1)Non-linear hypotheses (非线性hypotheses)2)Neurons and the brain (神经元和大脑)3)Model representation I (模型表示一)4)Model representation II (模型表示二)5) Examples and intuitions I (例子和直观解释一)6) Examples and intuitions II (例子和直观解释二)7) Multi-class 阅读全文
摘要:
斯坦福大学机器学习第七课"正则化“学习笔记,本次课程主要包括4部分:1)The Problem of Overfitting(过拟合问题)2) Cost Function(成本函数)3) Regularized Linear Regression(线性回归的正则化)4) Regularized Logistic Regression(逻辑回归的正则化)以下是每一部分的详细解读。1)The Problem of Overfitting(过拟合问题)拟合问题举例-线性回归之房价问题:a) 欠拟合(underfit, 也称High-bias)b) 合适的拟合:c) 过拟合(overfit, 阅读全文
摘要:
斯坦福大学机器学习第六课"逻辑回归“学习笔记,本次课程主要包括7部分:1) Classification(分类)2) Hypothesis Representation3) Decision boundary(决策边界)4) Cost function(代价函数,成本函数)5) Simplified cost function and gradient descent(简化版代价函数及梯度下降算法)6) Advanced optimization(其他优化算法)7) Multi-class classification: One-vs-all(多类分类问题)以下是每一部分的详细解读。 阅读全文
摘要:
斯坦福大学机器学习公开课第五课是“Octave Tutorial”,主要是机器学习公开课的编程作业需要用Octave完成,同样需要用Octave完成作业的还有PGM(概率图模型)课程。和第三课线性代数回顾相似,这里不打算写“Coursera公开课笔记: 斯坦福大学机器学习第五课“Octave 指南(Octave Tutorial)”,而是想换一种思路,将现有的不错的Octave学习资源进行一个整理。Octave 是一个旨在提供与Matlab语法相容的开放源代码的科学计算与数值分析的工具,同时是GNU旗下的成员之一,官方网站见:GNU Octave, 官方文档比较详细, 见:GNU Octave 阅读全文
摘要:
斯坦福大学机器学习第四课"多变量线性回归“学习笔记,本次课程主要包括7部分:1) Multiple features(多维特征)2) Gradient descent for multiple variables(梯度下降在多变量线性回归中的应用)3) Gradient descent in practice I: Feature Scaling(梯度下降实践1:特征归一化)4) Gradient descent in practice II: Learning rate(梯度下降实践2:步长的选择)5) Features and polynomial regression(特征及多 阅读全文