最小二乘矩阵推导

      转载请注明出处 http://www.cnblogs.com/gufeiyang

 

      最小二乘是机器学习中常用的方法,比如线性回归。本文首先简单介绍一下过程中用到的线性代数知识,然后介绍最小二乘的矩阵推导。

            定义矩阵$A$, 变量$x$, 变量$b$

                            $\frac{\partial x^{T}a}{\partial x}$ $=a$

                            $\frac{\partial x^{T}Ax}{\partial x}$ $=Ax+A^{T}x$

            如果$A$是对称的,则有  

                                           $Ax+A^{T}x=2Ax$

     

      最小二乘的目标是:

                                           $\min \limits_{x{\in}R} (||Ax-b||_{2})^{2}$ 

      这个问题的本质是多变量的的二次优化问题。很容易想到的是对变量进行求导。

      展开

                        $(||Ax-b||_{2})^{2} = (Ax-b)^{T}(Ax-b)$

                                           $=x^{T}A^{T}Ax-b^{T}Ax-x^{T}A^{T}b+b^{T}b$

      因此有

                   $\frac{\partial (||Ax-b||_{2})^{2}}{\partial x}$ $~=~2A^{T}Ax-2A^{T}b$,

       最后得到

                                         $x=(A^{T}A)^{-1}A^{T}b$

       针对线性回归来讲,直接利用最小二乘,没有考虑参数正则化,可能会产生过拟合。可以对参数x正则化处理,一范式正则化为lasso,二范式正则化为岭回归。

 

                         

posted @ 2017-09-03 16:29  Gu Feiyang  阅读(8685)  评论(1编辑  收藏  举报