多项式拟合与线性回归
https://blog.csdn.net/qq_31852975/article/details/72354578
多项式拟合与线性回归
多项式拟合
设M次多项式为 f
当损失函数为L
时,通过解L(w)最小的问题,可以拟合出该多项式。
这个问题在《统计学习方法》李航的第一章中介绍。 不过其中1.18带入后的结果不正确。
具体错误见勘误表http://www.hangli-hl.com/uploads/3/4/4/6/34465961/errata.pdf
具体推导过程http://blog.csdn.net/xiaolewennofollow/article/details/46757657
这里的多项表达式中,f是关于x的一个函数,式中只有一个变量x。
线性回归
线性回归假设特征与结果满足线性关系。这里为什么可以假设为线性关系?为什么可以假设数据是独立同分布的
- 线性关系是用来假定样本集X,Y之间的关系,有了这个关系才可以继续推导出模型的参数向量θ
- 监督学习假设X,Y满足联合概率分布P(X,Y)。训练数据与测试数据被看做是依联合概率分布独立同分布的。
- 统计学习假定数据存在一定的规律,进而对模型进行学习,但是对于系统具体的定义是未知的。
这里使用Andrew Ng讲义中的公式定义。
对于n个特征的特征向量
hθ
这里同样用平方损失函数
J
J最小越小,拟合的直线就越接近样本。具体解释见Andrew Ng公开课。通过两种方式来求解θ。
梯度下降( LMS algorithm)
而使得 J
下降最快的方向为 J对 θ
求偏导数的反方向。
这里为什么是反方向是梯度下降最小的方向?
- 因为梯度方向为函数增长最快的方向,所以J
- 的最小值则为减法。
对于每一个特征x,对J
求偏导。
∂∂θ
那么对于所有的样本,通过如下的方式得到特征向量θ。
遍历n个样本 直至收敛
θ
这样做的消耗是多少,如何优化为随机梯度下降?
- θ