君子博学而日参省乎己 则知明而行无过矣

博客园 首页 新随笔 联系 订阅 管理

Logistic回归

在实际应用中,除了预测问题,其实更多的是 分类问题回归问题分类问题其实是非常相似的,主要区别是分类问题的输出变量Y是取有限个离散值的,而回归问题本质上是一个拟合问题,给定一组已知数据,选择一条函数曲线使其很好地拟合已知数据且很好地预测未知数据。

面对两个相似的问题,我们就要考虑能否用同样的算法来解决?之前学习过线性回归模型,其实只要对线性回归模型稍加修改,就能将其应用到 分类问题上面了,经过修改过的线性回归模型就被称为Logistic回归。具体修改方案如下:

假设对应的分类目标只有两类,即$y\in {0,1}$,回顾一下,在线性回归模型中,我们的预测函数为$h_\theta(x)$,在分类问题中,我们将其稍加修改:

其实就是在原来的预测函数上叠加一个$g(z)$函数,而$g(z)$是如此定义的:

可以来看一下$g(x)$函数的图像:

logistic函数图像

从图像中可以看出,函数值是永远固定在$[0,1]$之内的,其实这个$g(z)$函数就被称为Logistic函数或者sigmoid函数。因此,在这个Logistic函数的作用下,$h_\theta(x)$就被固定在$[0,1]$之内,也即$h_\theta(x)\in [0,1]$。

再次观察Logistic函数的图像,我们可以发现,$x$越大,其函数值越接近于$1$,$x$越小,其函数值越接近与$0$,因此我们用$h_\theta(x)$来估计每个分类的概率值,即:

又因为我们的假设是一个二元分类问题,所以:

将上面两个等式合并:

接着,我们可以写出参数$\theta$的似然函数:

这时,就可以依照在最小二乘法的概率解释中的推导过程一样,将这个关于$\theta$的复杂似然函数转化为相对简单的对数函数:

现在的目标就是要使得这个似然函数最大化,可以回想一下我们在线性回归模型中所用的算法——梯度下降法,在此处我们也可以使用这个算法,使得$\theta = \theta+\alpha\nabla\ell(\theta)$,需要注意的是,此处我们使用的加号而不是减号,因为我们要求的最大值而不是最小值。

对$\theta$中的每一个分量进行求偏导(此时为了运算的方便,暂时当做只有一组数据):

而又因为$g(z)=\frac{1}{1+e^{-z}}$,所以

因此式子$\ref{0}$可以进行如下的推导:

最终,我们得到了梯度上升法的递推公式:

到现在为止,我们已经得到了Logistic回归模型的学习算法了。

比较

这个公式$\ref{1}$和线性回归模型中的梯度下降法“长得”是一样的,但是其本质是完全不同的,在线性回归模型中,$h_\theta(x)$是一个线性函数,而在Logistic回归中,$h_\theta(x)$则不是一个线性函数,而是一个sigmoid函数。

在学习算法中,有三种学习模型是非常相似的,分别是线性回归模型Logistic回归感知机模型,它们不管在模型的建立还是在算法的求解上都非常的相似1,但是它们之间也存在着不同的地方。

首先是线性回归模型,它主要使用来对一系列的点进行拟合的,它的输出值($h_\theta(x)$)是任意的预测值。

感知机模型则是一种典型的简单分类器,它的输出值($h_\theta(x)$)只能是固定的有限的几个类别,在二元分类问题中,其输出值($h_\theta(x)$)只能0或1,即$h_\theta(x)\in \{0,1\}$

最后是本文的主角,Logistic回归,某种程度上,我觉得它是介于上面两种模型之间的”中间模型”,它的输出值($h_\theta(x)$)虽然也是固定在有限的范围内,但是却是连续的,而不像感知机那样,全是离散的值,在二元分类中,其输出值是$h_\theta(x)\in [0,1]$。

参考资料

  1. 其实之前我自己都一直在困惑,这个三个模型的区别到底在哪里

转载自:http://zhouyichu.com/machine-learning/Logistic-Regression.html

posted on 2015-07-22 01:24  刺猬的温驯  阅读(262)  评论(0编辑  收藏  举报