andrew ng machine learning week 2 课堂笔记 多元线性回归

吴恩达机器学习全套笔记博客地址
 

一、多元线性回归的模型表示


输入变量x中包含n个特征变量:

 

 

假设函数的参数随着特征变量的增多而增多:

 

代价函数的变化:

梯度下降算法的变化:

简单来说:

 

二、特征缩放 feature scaling 

特征变量的单位不同意,所以进行归一化:

特征缩放:除以最大值和最小值的差,控制结果在0-1之间

均值归一标准化:减去平均值后除以标准差或者最大最小差

 

 

 三、学习速率的选择

四、多项式回归

 

 

五、正规方程normal equation(基础的最小二乘法,通过代数推导的方式)


设梯度值为0,进行参数的求解:

 

最终结果:

数据的表示形式:

正规方程和梯度下降法的区别:

如果不可逆怎么办?——删除某些特征变量

 

posted @ 2018-10-25 11:02  暴走的二萌  阅读(241)  评论(0编辑  收藏  举报