吴恩达机器学习第一课 Supervised Machine Learning Regression and Classification

Supervised Machine Learning Regression and Classification

第一周

1.1 机器学习定义

image-20240508111023034

1.2 监督学习

image-20240512110944626

1.2.1回归

在输入输出学习后,然后输入一个没有见过的x输出相应的y

image-20240508111444814 image-20240508111914285

1.2.2 classification

有多个输出

image-20240508112336535

1.3 无监督学习

数据仅仅带有输入x,但不输出标签y,算法需要找到数据中的某种结构。

image-20240512111423884

clustering:将相似的数据点组合在一起

anomaly detection:用于检测异常事件

dimensionality reduction:降维 可以压缩大数据集

2.1 线性回归模型

image-20240512202658988

image-20240512203150655

image-20240512204109296

2.2 代价函数公式

image-20240514110552170

2.3 理解代价函数

image-20240514111116925

image-20240514111736641

image-20240514112046130

image-20240514112215956

image-20240514112430750

image-20240514112609585

2.4 代价函数可视化

image-20240514112943095

image-20240516102726668

image-20240516105519741


3.1 梯度下降

最小化成本函数j

image-20240516110031743

image-20240516110530985

3.2梯度下降的实现

α成为learning rate

如果非常大的话,表示一个非常激进的梯度下降过程

image-20240516112116390

image-20240516112847345

3.3 学习率

image-20240516130756767

到达了最小值之后,这个导数变为0,不会更改,保持这个结果。

image-20240516131411072

3.4 用于线性回归的梯度下降

image-20240516131700910

image-20240516132206892

image-20240516132816057

image-20240516132910456

image-20240516133255588

image-20240516134004017

第二周

1.1 多维特征

image-20240516134720078

image-20240516134940656

image-20240516135234616

1.2向量化

image-20240516140403377

image-20240516141029324

1.3 用于多元线性回归的梯度下降法

image-20240516142320778

image-20240516142553982

2.1 特征缩放

image-20240516143343013

对训练数据进行处理,关键是重新标度x1和x2

image-20240516143757637

image-20240516144223440

image-20240516153743788

image-20240516154006175

2.2 判断梯度下降是否收敛

image-20240516155140990

2.3 如何设置学习率

image-20240516155526555

image-20240516155738735

2.4 特征工程

image-20240516160627360

2.5 多项式回归

image-20240516161113500

第三周

image-20240524162210874

image-20240524162823964

1.1 logistic regression

可用作classification ,实际上是用作解决输出标签

image-20240524163623565

image-20240524163911913

1.2 决策边界

image-20240524164456068

image-20240524164800619

image-20240524165100287

叉号表示y类等于1,小圆圈表示y类等于0

image-20240524165208493

1.3 逻辑回归中的代价函数

image-20240524183157272

image-20240524184147468

平方误差成本函数不适用于逻辑回归

image-20240524184342253

1.4 简化逻辑回归代价函数

image-20240524184913786

image-20240524185134127

1.5 实现梯度下降

image-20240524185423468

image-20240524185651486

线性回归与逻辑回归

1.6 过拟合问题 overfitting

image-20240524191155257

generalization 泛化 准确预测出从来没有见过的案例的能力

image-20240524191535939

1.7 解决过拟合问题

收集更多的训练数据

image-20240524191836154

特征选择

image-20240524192227057

正则化:缩小参数而不必将参数设置为0

可以保留所有的特征

image-20240524192510607

1.8 正则化

image-20240524193345658

image-20240524193724910

image-20240524194032844

1.9 用于线性回归的正则方法

image-20240524195202260

image-20240524195616937

image-20240524195916105

去掉求和符号是因为我们是对Wj求偏导,除了Wj那项其他都消除了

1.10 用于逻辑回归的正则方法

image-20240524200244540

image-20240524200409611

posted @ 2024-06-10 11:25  记录学习Blog  阅读(16)  评论(0编辑  收藏  举报