逻辑回归(Logistic Regression)


返回 我的研究方向(Research Interests)



函数#

sigmod函数#

y=11+ex

image

原始条件概率#

P(Y|X)=11+e(WTx+b)

对于一个二分类问题:

P(y=1|x,w)=11+e(WTx+b)

P(y=0|x,w)=e(WTx+b)1+e(WTx+b)=1P(y=1|x,w)

两个公式可以合并成:

P(y|x,w)=P(y=1|x,w)y[1p(y=1|x,w)]1y


定义目标函数#

假设我们的数据集D={(xi,yi)}i=1nxiRdyi{0,1}
而且我们定义了如下式子:

P(y|x,w)=P(y=1|x,w)y[1p(y=1|x,w)]1y

我们需要最大化的目标函数:

W^MLE,b^MLE=argmaxw,bi=1np(yi|xi,w,b)

注意:

i=1nxi=x1x2x3...xn

i=1n=x1+x2+x3...+xn


下面开始推导:
我们需要最大化的目标函数,

W^MLE,b^MLE=argmaxw,bi=1np(yi|xi,w,b)

由于右边是连乘,可能会导致计算机计算的时候出现溢出,所以采取加对数log的处理方法,即

W^MLE,b^MLE=argmaxw,blog(i=1np(yi|xi,w,b))

W^MLE,b^MLE=argmaxw,bi=1nlogp(yi|xi,w,b)

注意:

logxyz=logx+logy+logz

对于最大化问题,我们一般取最小化,即

W^MLE,b^MLE=argminw,bi=1nlogp(yi|xi,w,b)

由于

P(y|x,w,b)=P(y=1|x,w,b)y[1P(y=1|x,w,b)]1y

所以

argminw,bi=1nlog[P(y=1|x,w,b)y[1P(y=1|x,w,b)]1y]

argminw,bi=1n[ylogP(y=1|x,w,b)+(1y)log[1P(y=1|x,w,b)]]

我们令

P(y=1|x,w)=11+e(WTx+b)=σ(WTx+b)

由此可得

argminw,bi=1n[ylogσ(WTx+b)+(1y)log[1σ(WTx+b)]]

σ(x)=11+ex

σ(x)=σ(x)[1σ(x)]

logx=1x

我们对W进行求导

L(W,b)W=i=1n[yiσ(WTxi+b)[1σ(WTxi+b)]σ(WTxi+b)xi+(yi1)σ(WTxi+b)[1σ(WTxi+b)]1σ(WTxi+b)xi]

L(W,b)W=i=1n[yi[1σ(WTxi+b)]xi+(yi1)σ(WTxi+b)xi]

L(W,b)W=i=1n[σ(WTxi+b)yi]xi

使用梯度下降求解

经典问题#

  • 是否可以用线性回归来表示P(Y|X)=WTx+b ? 为什么?

答:
不可以!
因为P(Y|X)为条件概率,那么既然是条件概率,那么就应该满足以下两个条件:

{0P(Y|X)1P(Y|X)=1

然而,很明显,

WTx+b+

也就是,

P(Y|X)WTx+b

(0,1)(,+)

综上,不可以!

  • 逻辑回归分类器是一个线性分类器吗?还是非线性分类器?为什么?

答:
是的!
下面的绿色的线就是决策边界
image
基于下面公式:

P(y=1|x,w)=11+e(WTx+b)

P(y=0|x,w)=e(WTx+b)1+e(WTx+b)

假设落在决策边界上的点,落在两边的概率是等同的
即:

P(y=1|x,w)P(y=0|x,w)=1

得出

e(WTx+b)=1

两边加log

loge(WTx+b)=log1

得出

(WTx+b)=0

最终

WTx+b=0

所以很明显逻辑回归的决策边界是一个线性的!


应用场景#

  • 贷款违约(会违约与不会违约)
  • 广告点击(会点击与不会点击)
  • 商品推荐(会购买与不会购买)
  • 情感分析(正面与方面)
  • 疾病诊断(阳性与阴性)
  • other...
posted @   言非  阅读(80)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 【译】Visual Studio 中新的强大生产力特性
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 【设计模式】告别冗长if-else语句:使用策略模式优化代码结构
点击右上角即可分享
微信分享提示
主题色彩