机器学习笔记(二)多元线性回归

Multiple Features (多特征量)

1、字符定义:

 

2、Multivariate Linear Regression (多元线性回归):

3、代价函数:

 

4、梯度下降算法:

 

梯度下降技巧一——Feature Scaling (特征缩放)

1、定义:将每个特征量缩放到-1和1之间。(与之范围接近即可,如0~3,-2~0.5等)

 

2、作用:方便梯度下降时的收敛(轮廓图更接近圆)。

 

3、缩放方法:

(1)直接除以最大值。

(2)Mean Normalization(均值归一化):减去平均值再除以s(即最大值-最小值,也可以是标准差)

 

梯度下降技巧二——Learning Rate (学习速率)

 

A:α=0.1                            B:α=0.01(α较小,收敛速度慢)   C:α=1(α太大,发散)

 

Polynomial Regression (多项式回归)

1、举例:不同次项可以转换为不同的特征值,如面积为特征值x1,面积²为特征值x2,面积³为特征值x3。将多项式回归问题转化为多元线性回归问题。

 

Normal Equation (正规方程)

1、作用:一步求解最优值。不需要进行特征归一化处理。(适用于n较小的情况)

 

2、矩阵表示:

 

3、推导过程:参考博客

 

 

4、 XTX不可逆的情况:

两种可能性:(1)一种是特征选的很多余了(即两个特征相关),比如选了房子的平方面积作为特征还选了房子的英尺计算的面积;(2)一种是特征选的太多(即m≤n),比如你有10个样本,结果选了1000个特征。

posted @ 2019-10-04 16:37  橙同学的学习笔记  阅读(705)  评论(0编辑  收藏  举报