一、模型描述

符号表示:

(i)表示第i个样本,在矩阵中可以表示为第几行第几列

 

h(hypothesis)——假设函数

 

二、代价函数(cost function)

线性回归的目标函数

 

拟合函数(fit data)—— 确定函数的参数θ0,θ1

 减少(最小化)假设的输出值(预测值)和真实值之间差的平方和

 

因此定义代价函数:

平方误差函数(回归问题常用函数)

 

goal--optimization objective

目标找代价函数的最小值

 

3D,两个参数的代价函数

 

 

等高线图(更方便的形式显示代价函数)

同一个圆上的代价函数值相同

 

 

三、梯度下降

gradient descend(最小化代价函数)

 

初始化θ0,θ1的值

不同的初始化值可能会得到不同的局部最优处,因此需要更新

 

 

:=表示赋值(eg.a:=a+1)

=表示判断(eg:a=b,a是否等于b

α 表示学习率,控制梯度下降时迈出多大的步子,α 值大则幅度大

需要同时更新θ0,θ1

 

 

 

如果学习率过大可能会越过最优点,导致无法收敛

当到了参数不会再更新时,就是最优点(例如局部导数为0的点)

注意当越来越接近最优点的时候,局部导数值会越来越小,因此没有必要改变α 的值

 

 

 

凸函数(弓形函数)

P:局部最优解的集合

这里仅有一个全局最优解,没有局部最优解

因此使用线性回归,都会收敛到最优解

更适用于大数据

Batch梯度下降——每一步梯度下降都遍历了整个训练集的样本

 

posted on 2019-01-07 15:33  rin_riceroll  阅读(227)  评论(0编辑  收藏  举报