吴恩达机器学习_55过拟合问题/56代价函数

目前所学的学习算法:线性回归逻辑回归

一、过度拟合

例子:线性拟合(房价)

(1)、:欠拟合,具有高偏差

 

 (2)、:拟合的很好

 

(3)、:过拟合,具有高方差 (通常是变量太多,拟合出来的图像看起来很符合数据集,而且代价函数接近0,但是它无法泛化到新的数据集中)

 

  二、解决过度拟合

 (1)、减少变量的数量 

(2)、正则化

  保留所有的特征变量,但是减少量级或参数θ的大小

 

三、正则化

思路:

以上图为例,给代价函数加上惩罚项

代价函数变为

 

 惩罚项前的系数为1000,为了使代价函数最小,θ_3和θ_4要接近0,这就使得假设函数后两项几乎为零(相当于还是一个二次函数),从而在不减少变量的同时达到更好的拟合效果,这就是正则化的思路。  

 

三、正则化代价函数

很多时候,我们不知道哪些变量是相关度比较低的,也就无法准确的缩小它们的值,因此我们考虑给代价函数添加额外的正则化项来缩小所有的参数,

通常θ_0这项不需要进行正则化,这是约定俗成的

 

 如果正则化参数太大,那么对参数的惩罚程度太大,使得参数都接近为0

 

 

 

  

 

posted @ 2019-09-25 15:27  vzyk  阅读(232)  评论(0编辑  收藏  举报