日食三餐夜眠六尺

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

逻辑回归原理总结

概述

  • 什么是逻辑回归,从二分类开始说起
  • 二元逻辑回归模型的拟合
  • 多分类逻辑回归

1. 什么是逻辑回归,从二分类开始说起

回顾线性回归y=xTβ,我们知道响应变量y一般是连续的,但在分类问题中,比如常见的二分类中y=0y=1是非连续的。为了依旧能够利用输入特征x的线性函数来建立分类的后验概率P(y=0)P(y=1),可以对线性回归xTβ进行如下变换(sigmoid函数f(x)=1/(1+ex)

g(x)=11+exp{xTβ}

可以发现,此时g(x)[0,1]。通常取临界值0.5,当g(x)>0.5,即xTβ>0时,y=1;当g(x)<0.5,即xTβ<0时,y=0;当g(x)=0.5,此时逻辑回归无法确定分类。也就是说,当xTβ越大,分为1的概率越大;当xTβ越小,分为0的概率越大;当xTβ越接近0,分类的不确定性越大。

2. 二元逻辑回归模型的拟合

由于二分类问题的响应变量非连续,所以最小二乘方法中的误差平方和损失在这不适用,我们可以采用最大似然进行拟合。假设二分类响应变量为y=0y=1,且

P(y=1|x,β)=11+exp{xTβ}

P(y=0|x,β)=1P(y=1|x,β)=exp{xTβ}1+exp{xTβ}

合并上述两式

P(y|x,β)=P(y=1|x,β)y[1P(y=1|x,β)]1y,  y=0,1

对应的N样本对数似然为

l(β)=i=1Nlog[P(yi|xi,β)]=i=1N{yilog[P(y=1|xi,β)]+(1yi)log[1P(y=1|xi,β)]}

l(β)=i=1N[(1yi)xiTβ+log(1+exp(xiTβ))]

采用梯度上升法求解最优参数,先对上式求导

l(β)β=i=1N(yi11+exp(xiTβ))xi=XT(Yg(X))

梯度上升法中每一步向量β的迭代公式如下,其中α为迭代步长,

β=β+αXT(Yg(X))

3.多分类逻辑回归

构建逻辑回归模型意在利用输入特征X的线性函数来建立分类(G=1,,K)的后验概率,并要求所有类别的后验概率之和为1且都在[0,1]内。该模型的形式为(称之为Logit变换或log-odds),总共K1个方程,

logP(G=1|X=x)P(G=K|X=x)=xTβ1

logP(G=2|X=x)P(G=K|X=x)=xTβ2

logP(G=K1|X=x)P(G=K|X=x)=xTβK1

整个模型的参数为θ=(β1T,,βK1T)。根据k=1KP(G=k|X=x)=1可以计算出

P(G=K|X=x)=11+k=1K1exp{xTβk}

P(G=k|X=x)=exp{xTβk}1+k=1K1exp{xTβk},  k=1,,K1.

posted on   chenxiaoyuan  阅读(449)  评论(0编辑  收藏  举报

编辑推荐:
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
阅读排行:
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· AI技术革命,工作效率10个最佳AI工具
点击右上角即可分享
微信分享提示