Linear Regression(线性回归)(二)—正规方程(normal equations)

(整理自AndrewNG的课件,转载请注明。整理者:华科小涛@http://www.cnblogs.com/hust-ghtao/

    在上篇博客中,我们提出了线性回归的概念,给出了一种使代价函数最小的方法:梯度下降法。在本篇博客中,我们给出另一种方法:正规方程。

    是关于的函数,要求此函数的最小值,有人说可以求导啊,另,求出相应的即可,本文提出的就是此方法。但是由于是一个矩阵(向量是特殊的矩阵),我们需要关于矩阵求导方面的知识。

1 矩阵求导

    假设函数阶矩阵映射到实数空间,我们定义对于阶矩阵求导为:

 

   image

    所以导函数也是阶的矩阵。例如假设:

 

image

    而,求:

 

image

    另外介绍矩阵迹的概念:对于一个的矩阵,它的迹就是它的对角线的元素求和:

,矩阵的迹有如下的性质:

 

image

   

    上述介绍了矩阵函数的求导法则和矩阵迹的概念,下面给出一些后面要用到的结论:

 

image

 

2 正规方程

    大家不用太纠结于基础知识,只是一个推到工具而已,下面才是正题。磨好工具,就去砍柴吧:

    我们的任务是对代价函数求导:即令,然后解出。给定训练集,定义设计矩阵(design matrix),其中是输入特征的维数,是训练集中训练样本的个数。将写成下列形式:

 

image

    同样,定义目标向量:

 

image ,由于,于是得到:

 

image

 

    另外对于向量,我们有,所以:

 

image 

    由image 显然:   (1),

 

so

image   注意在推导过程中,步骤4我们用到了公式(1),。令导函数的值为0,我们得到正规方程:

image

 

    解出:

image 好了,这就是我们要学习的

   

    总结一下:整篇充斥着公式推导,但思路很简单:欲求代价函数的最小值,令其导函数为0,求出参数即可。最后提点建议,机器学习中是有很多公式推倒的内容,本人认为结论固然重要,但得来的过程也很重要,只有知其然并知其所以然,才能对背后的思想有更深刻的认识。检验自己是否弄懂了公式:看自己能否独立推导出结果。

posted @ 2014-03-04 13:19  华科小涛  阅读(6973)  评论(0编辑  收藏  举报