统计学习——逻辑回归

  逻辑回归(logistic regression)是统计学习中的经典分类方法,它可以处理二元分类以及多元分类。虽然名字里有”回归“两字,那么这两者又有什么关系呢?

1.从线性回归到逻辑回归

  逻辑回归原理是用逻辑函数将线性回归的结果(,+)映射到(0,1),故先介绍线性回归函数和逻辑函数。

1.1线性回归函数

  线性回归的模型是求出输出特征向量Y和输入样本矩阵X之间的线性关系系数θ,满足Y=Xθ,即

Y=θ0+θ1x1+···+θnxn=θTX

  此时Y是连续的,属于回归模型。

1.2二元逻辑回归模型

  我们对线性回归的结果做一个函数g上的转换,可以变化为逻辑回归,这个g函数我们一般取为sigmoid函数,即

g(z)=11+ez

  从图中可以看出,当z趋于正无穷时,g(z)趋于1,而当z趋于负无穷时,g(z)趋于0,这就非常适合于分类概率模型。另外它还有一个导数性质:

g(z)=g(z)(1g(z))

  如果我们令z=xθ,这样就得到了二元逻辑回归模型的一般形式:

h(x)=11+exθ

  其中x为样本输入,h(x)为模型输出,可以看作是某一分类的概率大小。θ为分类模型的要求的模型参数。对于二元样本来说,如果h(x)>0.5,即xθ>0,则y=1。如果h(x)<0.5,即xθ<0,则y=0y=0.5是临界情况。

  h(x)的值越小,分类为0的概率越高,反之,值越大的话分类为1的概率就越高。如果靠近临界点,则分类准确率会下降。

  模型的损失函数目标是极小化损失函数来得到对应的模型参数θ

2.二元逻辑回归的损失函数

  我们用最大似然法来推导出我们的损失函数。

  按照二元逻辑回归的定义,假设我们的样本输出是0或者1两类。有:

P(y=1|x)=h(x)P(y=0|x)=1h(x)

  上面两个式子可以简写成一个式子,即:

P(y|x)=h(x)y(1h(x))1y

  y取0或1

  得到了y的概率分布函数表达式,我们就可以用极大似然函数法来求解模型参数θ

  似然函数为:

L(θ)=i=1mh(x(i),θ)y(i)(1h(x,θ))1y(i)

  其中,m为样本个数。

  对似然函数对数化并取反可得到损失函数:

J(θ)=lnL(θ)=i=1m[y(i) log(h(x(i),θ))+(1y(i)) log(1h(x(i),θ))]

3.二元逻辑回归的损失函数的优化策略

  对于二元逻辑回归的损失函数最小化,常见的有梯度下降法,坐标轴下降法,拟牛顿法,这里我只给出有关梯度下降法的代数推
导,具体参考4. 二元逻辑回归的损失函数的优化方法

4.二元逻辑回归的正则化

  逻辑回归也会面临过拟合,我们可以使用正则化来避免过拟合。

  在经验风险最小化的基础上,尽可能采用简单的模型,可以有效提高泛化预测精度。如果模型过于复杂,变量值稍微有点变动,就会引起预测精度问题。正则化之所以有效,就是因为其降低了特征的权重,使得模型更为简单。

  正则化一般会采用L1范式或者L2范式。

  逻辑回归的L1正则化的损失函数表达式如下,相比普通的逻辑回归损失函数,增加了L1的范数做作为惩罚,超参数α作为惩罚系数,调节惩罚项的大小。

  二元逻辑回归的L1正则化损失函数表达式如下:

J(θ)=YTlog(h(θ,X))(1Y)Tlog(1h(θ,X))+α||θ||1

  代表矩阵哈达玛积,逻辑回归的L1正则化损失函数的优化方法常用的有坐标轴下降法和最小角回归法。

  二元逻辑回归的L2正则化损失函数表达式如下:

J(θ)=YTlog(h(θ,X))(1Y)Tlog(1h(θ,X))+12α||θ||22

  逻辑回归的L2正则化损失函数的优化方法和普通的逻辑回归类似。

posted @   呵呵哈希  阅读(140)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
点击右上角即可分享
微信分享提示