20160303线性模型

tips:注意下文中上下标的关系,当同时上下标出现,下标表示第几个样本,上标表示第几维特征。具体情况,具体分析。

1 线性模型

线性模型是机器学习模型中最基本的模型。许多强大的非线性模型都是在线性模型之上构建的。
给定一个有d个属性的样本x,\(x=(x^1,x^2,x^3,...,x^d)\),其中\(x^i\)为x在第i个属性上的取值,则线性模型就是通过将各个属性线性组合在一起的达到预测目的的函数。
\[f\left( x \right) = \sum_{i=1}^{d}{\omega_ix^i}\]
向量形式为:\(f\left( x \right) = \boldsymbol{\omega}^T\boldsymbol{x}+b\)
关于线性模型常见的有线性回归,对数几率回归(逻辑回归),线性判别分析(Linear Discriminant Analysis)。接下来对这些模型进行简介。

2 线性回归(linear regression)

2.1 线性回归模型及其求解

令数据集\(D=\{ \left(\boldsymbol{x_1},y_1 \right), \left(\boldsymbol{x_2},y_2 \right),\cdots, \left(\boldsymbol{x_m},y_m \right)\}\)。其中\(\boldsymbol{x}_i = \left( x_i^1,x_i^2,..,x_i^d\right)\)。线性回归模型就是要去学得\[f\left( \boldsymbol x \right) = \sum_{i=1}^{d}{\omega_ix^i}\]
那\(\omega\)如何取值才能使得这个模型最优呢?这里选用了均方误差来做为损失函数。也就是我们要使得\(\sum_{i=1}^m{\left(f\left(\boldsymbol x_i \right) -y_i \right)^2}\)最小。
\[
\begin{array}{rcl}
\left( \boldsymbol\omega^*,b^* \right)
& = & \underset{\omega,b}{argmin}\sum_{i=1}^m{\left(f\left(\boldsymbol x_i \right) -y_i \right)^2}\\
& = &\underset{\omega,b}{argmin}\sum_{i=1}^m{\left(y_i - \boldsymbol\omega \boldsymbol x_i - b\right)^2}
\end{array}
\]
那么如何求解这个式子呢?一般来说基于均方误差最小化来进行模型求解,常常使用的是最小二乘法。最小二乘法对应于线性回归而言就是找到条直线,使得所有样本点到直线距离之和最短。
下面我们进行一些公式的推导。
令:
\[
\hat{\boldsymbol{\omega}} = \left(\omega;b\right)\\
\boldsymbol{X} = \begin{bmatrix}
x_{11} & x_{12} & \cdots & x_{1d}& 1 \\
x_{21} & x_{22} & \cdots & x_{2d}& 1 \\
\vdots & \vdots & \cdots & \vdots& 1 \\
x_{m1} & x_{m2} & \cdots & x_{md} & 1 \\
\end{bmatrix}\\
y = \left(y_1,y_2,\cdots,y_m \right)
\]
那么\(\hat{\boldsymbol{\omega}}^* = \underset{\hat{\boldsymbol{\omega}}}{argmin}\left( \boldsymbol y- \boldsymbol X\hat{\boldsymbol{\omega}} \right)^T \left( \boldsymbol y-\boldsymbol X\hat{\boldsymbol{\omega}} \right)\),我们对\(\hat{\boldsymbol{\omega}}\)求导得到:
\[
对\hat{\boldsymbol{\omega}}导数 = 2 \boldsymbol X^T \left( \boldsymbol X \boldsymbol{\hat{\omega}}-\boldsymbol y \right )
\]
令此式为0,则可求得\(\hat{\boldsymbol{\omega}}^*\)最优解。
\[
\boldsymbol X^T \left( \boldsymbol X\hat{\boldsymbol \omega}-\boldsymbol y\right)=0\\
\boldsymbol X^T \boldsymbol X \hat{\boldsymbol \omega} = \boldsymbol X^T \boldsymbol y
\]
如果\(\boldsymbol X^T\boldsymbol X\)满秩或者正定:\(\hat{\boldsymbol \omega} = \left( \boldsymbol X^T \boldsymbol X\right)^{-1} \boldsymbol X^T \boldsymbol y\)
那么可得到线性回归模型为:
\[
f\left( \hat{\boldsymbol x_i} \right)=\hat{\boldsymbol x_i}^T \left( \boldsymbol X^T \boldsymbol X\right)^{-1}\boldsymbol X^T \boldsymbol y
\]
但是事实上\(\boldsymbol X^T\boldsymbol X\)经常出现不满秩的情况,这个时候就需要加入正则项,比如L1正则项。

这里插一个用拉格朗日来解决线性方程组最小二乘问题的方法
原问题:min:\(x^Tx,x \in R^n\)
subject: \(Ax=b\)
Lagrange函数:\(L\left(x,v\right)=x^Tx+\upsilon^T\left(Ax-b\right)\)
对L求偏导带入L得到g
对g求\(\upsilon\)偏导,求g最大值,作为原问题最小值。
求L的对偶函数\(L\left(x,\upsilon\right)=x^Tx+\upsilon^T\left(Ax-b\right)\)
\(\frac{\partial L}{\partial x}=2x+A^T\upsilon=0\)
\(\therefore x=-\frac{1}{2}A^T\upsilon\)
\(\therefore g\left(\upsilon\right)=-\frac{1}{4}\upsilon^TAA^T\upsilon-\upsilon^Tb\)
求对偶函数极大值
令\(\frac{\partial g}{\partial \upsilon}=-\frac{1}{2}AA^T\upsilon-b=0\)
\(\therefore -\frac{1}{2}A^T\upsilon=\left(A^TA\right)^{-1}A^Tb\)
\(\therefore x^*=\left(A^TA\right)^{-1}A^Tb\)
和通过线性回归计算得到的结论一致,因此线性回归具有强对偶性,此处的max min=min max。

2.2 梯度下降法求解线性回归

当\(X^TX\)阶数很高的时候,计算量会很大,因此我们可以采用梯度下降法来做。

  1. 初始化,任意选择\(\boldsymbol\omega\),\(\omega \in \mathbb{R}^d\)
  2. 沿梯度方向,不断改变\(\omega\)从而减小\[J = \sum_{k=1}^m{\left(y_k - \boldsymbol\omega x_k\right)^2}\] 具体做法就是: \[\omega_i := \omega_i - \alpha \frac{\partial }{\partial \omega_i}J\left( \omega \right)\\ \begin{array}{rcl} 假设只有一个样本:\frac{\partial }{\partial \omega_i}J\left( \boldsymbol\omega \right) & = & 2\left( \boldsymbol\omega x -y\right)\frac{\partial }{\partial \omega_i}\left( \boldsymbol\omega x - y \right)\\ & = & 2\left( \boldsymbol\omega x -y\right)\frac{\partial }{\partial \omega_i}\left( \sum_{i=1}^d \omega_i x_i - y \right)\\ & = & 2\left( \boldsymbol\omega x -y\right)x_i \end{array} \]
  3. 是否收敛,不满足则继续迭代。

关于梯度下降还有随机梯度下降,批量梯度下降,mini-batch梯度下降等等,这里不一一介绍了。关于学习率\(\alpha\),我们可以利用插值法,线性搜索等等,关于梯度下降的方向,我们可以使用牛顿法, 拟牛顿法,这里不展开介绍。

2.3 二值化

因为某些特征是无序的,因此这里要进行特殊处理。比如有个特征是血型,取值可以是{O,A,B,AB},但是这些特征都是无序的。因此我们这里进行转换:
O{0,0,0,1}
A{0,0,1,0}
B{0,1,0,0}
AB{1,0,0,0}
以上的做法,我看到有许多叫法,二值化,One-Hot编码,虚拟变量(哑变量)等等。不过虚拟变量还不太一样,虚拟变量要注意的就是虚拟变量陷阱,这个就不细说了。

2.4 广义线性回归

若函数g可微,则:
\[y=g^{-1}\left( w^Tx+b \right)\]
称为广义线性模型,其中g函数称为联系函数,下面就介绍g=ln(*)时的例子。

3 对数几率回归(逻辑回归)

利用线性回归模型,我们可以进行回归学习,如果需要分类的时候,我们将采用对数几率回归(这里是书中的提法,也叫作逻辑回归,logistic regression)。

3.1 sigmod函数与对数几率回归

由上一节线性回归可知\(f(x)\in R\),因此我们这里只需设计一个函数使得将f(x)转化为0/1即可。这里考察单位阶跃函数:
\[
f\left ( x \right )=\left\{\begin{matrix}
0,x< 0\\
0.5,x=0\\
1,x>0\\
\end{matrix}\right.
\]
但是单位阶跃函数不连续,太生硬,需要能找一个函数来代替单位阶跃函数,这里就有了sigmoid函数:
\[y = \frac{1}{\left( 1+e^{-x} \right)}\]
这里我们简单看看几个式子的变换:
\[
y=\frac{1}{1+e^{-\left( \boldsymbol\omega^T\boldsymbol x+b\right)}}\\
\ln{\frac{y}{1-y}} = \boldsymbol\omega^T\boldsymbol x+b\\
\]
如果这里将y当做x为正例的可能性,则\(\frac{y}{1-y}\)为几率,反映x作为正例的相对可能性。

3.2 参数的求解。

这里如何求解参数,我们可以用极大似然法,然后求解极大似然函数取得最大值时的参数。首先给出几个式子:

\(p\left(y=1 \mid x \right) = \frac{1}{1+e^{-\left( \boldsymbol\omega^T\boldsymbol x\right)}}\)
\(p\left(y=0 \mid x \right) = \frac{1}{1+e^{\left( \boldsymbol\omega^T\boldsymbol x\right)}}\)

这里我省略了b,是因为可以将x:=(x;1),w:=(w;b)。那么这里的对数似然函数就是:
\[L = \sum_{i=1}^m \left( y_i\log p_1+\left( 1- y_i\right)\log p_0 \right)\]
那么参照线性回归梯度下降法继续求得,令:
\[
h_\omega\left( x \right) = g\left( \omega^Tx \right) = \frac{1}{1+e^{-\omega^Tx}}\\
\]
则导数为:
\[
\begin{array}{rcl}
\frac{\partial L }{\partial \omega_i} & = & \left( y \frac{1}{g\left(\omega^Tx \right) }- \left( 1-y\right) \frac{1}{1-g\left(\omega^Tx \right)}\right)\frac{\partial }{\partial \omega_i}g\left( \omega^T x\right)\\
& = & \left( y \frac{1}{g\left(\omega^Tx \right) }- \left( 1-y\right) \frac{1}{1-g\left(\omega^Tx \right)}\right)g \left( \omega^Tx\right)\left(1-g\left( \omega^T\right) \right)\frac{\partial }{\partial \omega_i}\left( \omega^T x\right)\\
& = & \left( y\left( 1-g\left(\omega^Tx\right) \right) - \left( 1-y\right)g\left(\omega^T x \right)\right)x_i\\
& = & \left( y - h_\omega \left( x\right)\right)x_i
\end{array}
\]
最重要的导数已经求得,剩下的那部分就不用写出来了。

3.3 其他

实际应用中LR非常广泛,常常用LR作为base line,而且可以取得不错的效果。LR的计算也十分迅速,在广告点击率预估等等业务中,常常结合特征二值化,可以达到一定的效果。

4. 线性判别分析

线性判别分析的思想是:在训练样本中,将所有样本投影到一条直线,使得同类样本投影点尽可能接近,异类样本投影点尽可能元,对新样本分类就看这个样本投影点的位置来决定。

  1. 欲使同类样本投影点尽可能接近,那么就是让同类样本投影点的协方差尽可能小。
  2. 欲使异类样本的投影点尽可能远离,也就是让两类中心之间的距离增大。

针对这两个目标,我们令:
数据集\(D= \{ \left(x_i,y_i \right) \}_{i=1}^m\),\(y_i \in \{ 0,1\}\),\(X_i、\mu_i、\sum_i\)表示第i(i取值0或者1)类的集合、均值向量、协方差矩阵。
设直线为\(\omega\),我们可以得到:

\(\omega^T\mu_0\),0类样本的中心
\(\omega^T\mu_1\),1类样本的中心
\(\omega^T\sum_0\omega\),0类样本协方差
\(\omega^T\sum_1\omega\),1类样本协方差
则最大化的目标是\(J=\frac{\left \| \omega^T \mu_0-\omega^T \mu_1 \right \|_2^2}{\omega^T \sum_0 \omega+\omega^T \sum_1 \omega}\)

得到了J之后,我们就最大化J,然后求出J最大化时的\(\omega\),接下来将J进行变形。

\(S_{b}=\left( \mu_0-\mu_1\right)\left( \mu_0-\mu_1\right)^T\),类间散度矩阵
\(S_{\omega}=\sum_0+\sum_1\),类内散度矩阵
\[J = \frac{\omega^T S_b \omega}{\omega^T S_{\omega} \omega}\]

很明显这里我们需要归一化,令\(\omega^T S_{\omega} \omega=1\)

\[\underset{\omega}{min} \ {-\omega^T S_b \omega} \\
s.t. \ \omega^T S_{\omega} \omega = 1
\]

则由拉格朗日乘子法可得\(\omega = S^{-1}\left(\mu_0-\mu_1\right)\),这里计算矩阵的逆的时候常常使用奇异值分解,来保证数值的稳定性。

tips:LDA原理从贝叶斯决策理论的角度来阐释,并可证明,当两类数据同先验、满足高斯分布且协方差相等时,LDA可达到最优分类。

那么如何将LDA推广到多分类呢?这里需要定义一个全局散度矩阵。\(\mu\)是所有示例均值向量。

\[
\begin{array}{rcl}
S_t & = & S_b +S_\omega \\
& = &\sum_{i=1}^{m}{\left(x_i-\mu \right)\left( x_i - \mu\right)^T}
\end{array}
\\
S_\omega = \sum_{i=1}^N{\sum_{x \in X_i}{\left(x-\mu_i \right)\left( x - \mu_i\right)^T}}
\]

常常我们需要优化的是\[\underset{W}{max}\frac{tr\left(W^T S_b W \right)}{tr\left(W^T S_\omega W \right)} \ W\in\mathbb{R}^{d \times \left( N -1 \right)}\]
上式我们可以通过\(S_bW = \lambda S_\omega W\)得到,W的解为\(S_\omega^{-1}S_b\)的N-1个最大广义特征值所对应的特征向量组成。很明显这里是一个降维的过程,降到N-1维。

5. 多分类学习

这里我们谈谈如何将二分类学习推广到多分类。一般来说是利用拆解法,将多分类任务拆为若干个二分类任务。如何拆解呢?有三种经典策略:一对一(One vs One),一对其余(One vs Rest),多对多(Many vs Many)。
OvO:两两类别训练一个分类器,则共有N(N-1)/2
OvR:一个对剩下的,则共有N个分类器
MvM:若干类为正例,若干类为反例。这里需要设计正反例,因此采用了ECOC技术。
下面重点说说ECOC技术:

编码:对N个类别做M次划分,每次划分将一部分类别划分为正类,一部分划分为反类,从而形成一个二分类训练集;这样一共产生M个训练集,M个分类器。
解码:M个分类器分别对测试样本进行预测,这些预测标记组成一个编码,将这个编码和每个类别各自比较,则返回其中距离最小的类别作为预测结果。

书中这里列出了两种编码方法,二元码和三元码,这里看图说话。(谈谈ECOC的纠错能力)

posted @ 2016-07-24 11:15  ericxk  阅读(169)  评论(0编辑  收藏  举报