机器学习基石HOW部分(1)

机器学习基石HOW部分(1)


标签:机器学习基石

第九章

analytic solution wLIN=Xy with linear regression hypotheses and squared error

从方程的形式、误差的衡量方式、如何最小化Ein的角度出发,并简单分析了Hat Matrix的性质与几何意义,希望对线性回归这一简单的模型有个更加深刻的理解。

方程的形式

linear regression hypothesis: h(x)=wTx ,长得很像 perceptron,只不过是少了sign。
线性回归:寻找直线。平面或者超平面,使得输入数据的残差最小(残差是指观测值与预测值(拟合值)之间的差,即是实际观察值与回归估计值的差。在回归分析中,测定值与按回归方程预测的值之差,以δ表示。残差δ遵从正态分布N(0,σ2)。

误差的衡量

平方误差(squared error):

Ein(hw)=1Nn=1N(h(xn)yn)2

 

Eout(hw)=1NE(x,y) P(h(xn)yn)2

如何最小化Ein

先看看Ein的矩阵能够怎样表示:

Ein(hw)=1Nn=1N(wTxnyn)2
=1Nn=1N(xTnwyn)2=1N||Xwy||2

现在很明显,要得到最小的Ein就是把上面的矩阵最小化。
minwEin(w)=1N||Xwy||2
X与y来源于D,是固定不变的,因此它是一个以w为变量的函数。

画画Ein的图,它是连续,处处可微的凸函数。
图如下:
$E_{in}$

很明显,当Ein的曲线到达谷底的时候,Ein有最小值。结合微积分的只是,当曲线的导数为0的时候,Ein最小。
于是,要得到最小的Ein就变成了找到WLIN使得 Ein(wLIN)=0.

把微分从一元的简单形式开始计算,然后推广到多元。经过计算得到Ein(w)=2N(XTXwXTy)
现在就是要找到WLIN使得Ein(w)=2N(XTXwXTy)=0

XTX可逆的时候,答案还是很容易算出来的。就是让XTXw=XTy,然后就可以得到Ein(wLIN)=(XTX1XTy)
因为N>>d+1,所以XTX一般都是可逆的,此时解是唯一的。
如果XTX不可逆,那就会有许多解了。

XTX可逆,可以用一个神奇的X来代替XTX1XT,由此,

Ein(wLIN)=Xy

用以wLIN为参数的线性方程对原始数据做预测,可以得到拟合值y=XwLIN=XXy。这里又称H=XX†为Hat Matrix,帽子矩阵,H为y带上了帽子,成为y^,取名字取得很形象。

###Hat Matrix
帽子矩阵的几何意义

  • y^=XwLIN是X的一个线性组合,X中每个column对应RN下的一个向量,共有d+1个这样的向量,因此y^在这d+1个向量所构成的span(平面)上。
  • 事实上我们要做的就是在这个平面上找到一个向量y^使得他与真实值之间的距离|y−y^|最短。不难发现当y^是y在这个平面上的投影时,即y−y^⊥span时,|y−y^|最短。
  • 所以之前说过的Hat Matrix H,为y戴上帽子,所做的就是投影这个动作,寻找span上y的投影。
  • Hy=y^,(I−H)y=y−y^。(I为单位矩阵)
    trace(IH)=N(d+1)

    一个矩阵的trace等于该矩阵的所有特征值(Eigenvalues)之和。

有噪音的y

假设y由f(X)∈span+noise构成的。有y=f(X)+noise。之前讲到H作用于某个向量,会得到该向量在span上的投影,而I−H作用于某个向量,会得到那条与span垂直的向量,在这里就是图中的y−y^(IH)noise=y\hat{y}$。

这个y−y^Ein(wLIN)=1N||yy^||2=1N||(IH)noise||2=1Ntrace(IH)||noise||2=1N(N(d+1))||noise||2

因此Ein¯¯¯¯¯==noiselevel(1d+1N)Eout¯¯¯¯¯¯==noiselevel(1+d+1N)

learing curve

N -> ,Ein¯¯¯¯¯Eout¯¯¯¯¯¯都都向σ2(noise level)收敛,并且他们之间的差异被2(d+1)N给bound住了。有那么点像VC bound,不过要比VC bound来的更严格一些。

所以,兜兜转转,说明了用线性回归,学习是可行的。

 

posted @ 2015-12-18 10:56  huang22  阅读(288)  评论(0编辑  收藏  举报