机器学习——线性分类模型
Linear Classification
我们知道线性回归对数据要求有以下要求,数据未处理,需使用全部数据,数据满足线性关系。当我们对这个要求进行更改的时候,我们就会有新的模型来处理。
分类问题,回归模型是没有办法直接使用的。但是我们可以在线性模型的函数进行后再加入一层激活函数,这个函数是非线性的,激活函数的反函数叫做链接函数。
常见的激活函数有三个:
ReLU: \(max(0,x)\)
Sigmoid: \(\frac{1}{1+exp(-x)}\)
tanh:\(\frac{1-exp(-2x)}{1+exp(-2x)}\)
我们有两种线性分类的方式:
-
硬分类,我们直接需要输出观测对应的分类。这类模型的代表为:
- 线性判别分析(Fisher 判别)
- 感知机
-
软分类,产生不同类别的概率,这类算法根据概率方法的不同分为两种
- 生成式(根据贝叶斯定理先计算参数后验,再进行推断):高斯判别分析(GDA)和朴素贝叶斯等为代表
- Gaussian Discrimination Analysis
- Naive Bayes
- 判别式(直接对条件概率进行建模):Logistic Regression
虽然有些模型名字有回归二字,但实际上做的是分类任务,这样令人无语的名字后面还有很多
- 生成式(根据贝叶斯定理先计算参数后验,再进行推断):高斯判别分析(GDA)和朴素贝叶斯等为代表
两分类-硬分类:Perceptron
可参考之前的博客
两分类-硬分类:Linear Discriminant Analysis
在 LDA 中,我们的基本想法是选定一个方向,将试验样本顺着这个方向投影,投影后的数据需要满足两个条件,从而可以更好地分类:
- 相同类内部的试验样本距离接近。
- 不同类别之间的距离较大。
简称:类内小,类间大,每个类内的方差小,类之间的间距大,距离远
首先是投影,我们假定原来的数据是向量 \(x\),那么顺着 \( w\) 方向的投影就是标量:
对第一点,相同类内部的样本更为接近,我们假设属于两类的试验样本数量分别是 \(N_1\)和 \(N_2\),那么我们采用方差矩阵来表征每一个类内的总体分布,这里我们使用了协方差的定义,用 \(S\) 表示原数据的协方差:
所以类内距离可以记为:
对于第二点,我们可以用两类的均值表示这个距离:
综合这两点,由于协方差是一个矩阵,于是我们用将这两个值相除来得到我们的损失函数,并最大化这个值:
这样,我们就把损失函数和原数据集以及参数结合起来了。下面对这个损失函数求偏导,注意我们其实对 \(w\) 的绝对值没有任何要求,只对方向有要求,因此只要一个方程就可以求解了:
于是 \( S_w^{-1}(\overline{x_{c1}}-\overline{x_{c2}})\) 就是我们需要寻找的方向。最后可以归一化求得单位的 \(w\) 值。
两分类-软分类-概率判别模型:Logistic Regression
引言与定义
简单二分类任务 我们在Perceptron中介绍了,其预测值和输出标记的关系为:
寻找函数将分类标记与线性回归模型输出联系起来
最理想的函数——单位阶跃函数:
预测值大于零就判为正例,小于零就判为反例,预测值为临界
值零则可任意判别。缺点: 不连续
为了改进他不连续的特点,出现了替代函数,逻辑函数(logistic function):
他的优势:
- 单调可微、任意阶可导,可直接应用现有数值优化算法求取最优解
- 直接对分类可能性建模,无需事先假设数据分布
- 可得到“类别”的近似概率预测,对利用概率辅助决策任务有用
模型结构与求解
线性分类函数可以写成:
可以使用预测值作为分类的可能性,即概率
• 样本x属于正例(y=1)的概率
• 样本x属于反例(y=0)的概率
损失函数:采用对数损失函数
经验风险计算:
学习算法:SGD。梯度下降这种方法几乎可以优化所有深度学习模型。 它通过不断地在损失函数递减的方向上更新参数来降低误差。
1.初始化w ,b
2.按下式更新w ,b:
3.检查是否收敛,如果不收敛转
多分类-软分类-概率判别模型:Softmax Regression
Softmax Regression是多分类任务,即多个Logistic Regression
损失函数:Cross Entropy Loss
经验风险
结构风险
\(\theta^T_k\theta_k\)是权重衰减项
学习算法仍是SGD,同上就不过多赘述了。
两分类-软分类-概率生成模型:Gaussian Discrimination Analysis
生成模型中,我们对联合概率分布进行建模,然后采用 MAP 来获得参数的最佳值。两分类的情况,我们采用的假设:
- \(y\sim Bernoulli(\phi)\)
- \(x|y=1\sim\mathcal{N}(\mu_1,\Sigma)\)
- \(x|y=0\sim\mathcal{N}(\mu_0,\Sigma)\)
那么独立全同的数据集最大后验概率可以表示为:
-
首先对 \(\phi\) 进行求解,将式子对 \(\phi\) 求偏导:
\[\begin{align}\sum\limits_{i=1}^N\frac{y_i}{\phi}+\frac{y_i-1}{1-\phi}=0\nonumber\\ \Longrightarrow\phi=\frac{\sum\limits_{i=1}^Ny_i}{N}=\frac{N_1}{N} \end{align} \] -
然后求解 \(\mu_1\):
\[\begin{align}\hat{\mu_1}&=\mathop{argmax}_{\mu_1}\sum\limits_{i=1}^Ny_i\log\mathcal{N}(\mu_1,\Sigma)\nonumber\\ &=\mathop{argmin}_{\mu_1}\sum\limits_{i=1}^Ny_i(x_i-\mu_1)^T\Sigma^{-1}(x_i-\mu_1) \end{align} \]由于:
\[\sum\limits_{i=1}^Ny_i(x_i-\mu_1)^T\Sigma^{-1}(x_i-\mu_1)\\ =\sum\limits_{i=1}^Ny_ix_i^T\Sigma^{-1}x_i-2y_i\mu_1^T\Sigma^{-1}x_i+y_i\mu_1^T\Sigma^{-1}\mu_1 \]求微分左边乘以 \(\Sigma\) 可以得到:
\[\begin{align}\sum\limits_{i=1}^N-2y_i\Sigma^{-1}x_i+2y_i\Sigma^{-1}\mu_1=0\nonumber\\ \Longrightarrow\mu_1=\frac{\sum\limits_{i=1}^Ny_ix_i}{\sum\limits_{i=1}^Ny_i}=\frac{\sum\limits_{i=1}^Ny_ix_i}{N_1} \end{align} \] -
求解 \(\mu_0\),由于正反例是对称的,所以:
\[\mu_0=\frac{\sum\limits_{i=1}^N(1-y_i)x_i}{N_0} \] -
最为困难的是求解 \(\Sigma\),我们的模型假设对正反例采用相同的协方差矩阵,当然从上面的求解中我们可以看到,即使采用不同的矩阵也不会影响之前的三个参数。首先我们有:
\[\begin{align} \sum\limits_{i=1}^N\log\mathcal{N}(\mu,\Sigma)&=\sum\limits_{i=1}^N\log(\frac{1}{(2\pi)^{p/2}|\Sigma|^{1/2}})+(-\frac{1}{2}(x_i-\mu)^T\Sigma^{-1}(x_i-\mu))\nonumber\\ &=Const-\frac{1}{2}N\log|\Sigma|-\frac{1}{2}Trace((x_i-\mu)^T\Sigma^{-1}(x_i-\mu))\nonumber\\ &=Const-\frac{1}{2}N\log|\Sigma|-\frac{1}{2}Trace((x_i-\mu)(x_i-\mu)^T\Sigma^{-1})\nonumber\\ &=Const-\frac{1}{2}N\log|\Sigma|-\frac{1}{2}NTrace(S\Sigma^{-1}) \end{align} \]在这个表达式中,我们在标量上加入迹从而可以交换矩阵的顺序,对于包含绝对值和迹的表达式的导数,我们有:
\[\begin{align} \frac{\partial}{\partial A}(|A|)&=|A|A^{-1}\\ \frac{\partial}{\partial A}Trace(AB)&=B^T \end{align} \]因此:
\[\begin{align}[\sum\limits_{i=1}^N((1-y_i)\log\mathcal{N}(\mu_0,\Sigma)+y_i\log \mathcal{N}(\mu_1,\Sigma)]' \nonumber\\=Const-\frac{1}{2}N\log|\Sigma|-\frac{1}{2}N_1Trace(S_1\Sigma^{-1})-\frac{1}{2}N_2Trace(S_2\Sigma^{-1}) \end{align} \]其中,\(S_1,S_2\) 分别为两个类数据内部的协方差矩阵,于是:
\[\begin{align}N\Sigma^{-1}-N_1S_1^T\Sigma^{-2}-N_2S_2^T\Sigma^{-2}=0\nonumber \\\Longrightarrow\Sigma=\frac{N_1S_1+N_2S_2}{N} \end{align} \]这里应用了类协方差矩阵的对称性。
于是我们就利用最大后验的方法求得了我们模型假设里面的所有参数,根据模型,可以得到联合分布,也就可以得到用于推断的条件分布了。
两分类-软分类-概率生成模型:Naive Bayes
上面的高斯判别分析的是对数据集的分布作出了高斯分布的假设,同时引入伯努利分布作为类先验,从而利用最大后验求得这些假设中的参数。
朴素贝叶斯队数据的属性之间的关系作出了假设,一般地,我们有需要得到 \(p(x|y)\) 这个概率值,由于 \(x\) 有 \(p\) 个维度,因此需要对这么多的维度的联合概率进行采样,但是我们知道这么高维度的空间中采样需要的样本数量非常大才能获得较为准确的概率近似。
在一般的有向概率图模型中,对各个属性维度之间的条件独立关系作出了不同的假设,其中最为简单的一个假设就是在朴素贝叶斯模型描述中的条件独立性假设。
即:
于是利用贝叶斯定理,对于单次观测:
对于单个维度的条件概率以及类先验作出进一步的假设:
- \(x_i\) 为连续变量:\(p(x_i|y)=\mathcal{N}(\mu_i,\sigma_i^2)\)
- \(x_i\) 为离散变量:类别分布(Categorical):\(p(x_i=i|y)=\theta_i,\sum\limits_{i=1}^K\theta_i=1\)
- \(p(y)=\phi^y(1-\phi)^{1-y}\)
对这些参数的估计,常用 MLE 的方法直接在数据集上估计,由于不需要知道各个维度之间的关系,因此,所需数据量大大减少了。估算完这些参数,再代入贝叶斯定理中得到类别的后验分布。
小结
分类任务分为两类,对于需要直接输出类别的任务,感知机算法中我们在线性模型的基础上加入符号函数作为激活函数,那么就能得到这个类别,但是符号函数不光滑,于是我们采用错误驱动的方式,引入 \(\sum\limits_{x_i\in\mathcal{D}_{wrong}}-y_iw^Tx_i\) 作为损失函数,然后最小化这个误差,采用批量随机梯度下降的方法来获取最佳的参数值。而在线性判别分析中,我们将线性模型看作是数据点在某一个方向的投影,采用类内小,类间大的思路来定义损失函数,其中类内小定义为两类数据的方差之和,类间大定义为两类数据中心点的间距,对损失函数求导得到参数的方向,这个方向就是 \(S_w^{-1}(\overline x_{c1}-\overline x_{c2})\),其中 \(S_w\) 为原数据集两类的方差之和。
另一种任务是输出分类的概率,对于概率模型,我们有两种方案,第一种是判别模型,也就是直接对类别的条件概率建模,将线性模型套入 Logistic 函数中,我们就得到了 Logistic 回归模型,这里的概率解释是两类的联合概率比值的对数是线性的,我们定义的损失函数是交叉熵(等价于 MLE),对这个函数求导得到 \(\frac{1}{N}\sum\limits_{i=1}^N(y_i-p_1)x_i\),同样利用批量随机梯度(上升)的方法进行优化。第二种是生成模型,生成模型引入了类别的先验,在高斯判别分析中,我们对数据集的数据分布作出了假设,其中类先验是二项分布,而每一类的似然是高斯分布,对这个联合分布的对数似然进行最大化就得到了参数, \(\frac{\sum\limits_{i=1}^Ny_ix_i}{N_1},\frac{\sum\limits_{i=1}^N(1-y_i)x_i}{N_0},\frac{N_1S_1+N_2S_2}{N},\frac{N_1}{N}\)。在朴素贝叶斯中,我们进一步对属性的各个维度之间的依赖关系作出假设,条件独立性假设大大减少了数据量的需求。
有时会发现学习是一件很快乐的事情 比一直跑步容易多了 不是嘛