返回 我的研究方向(Research Interests)
sigmod函数#
y=11+e−x

原始条件概率#
P(Y|X)=11+e−(WTx+b)
对于一个二分类问题:
P(y=1|x,w)=11+e−(WTx+b)
P(y=0|x,w)=e−(WTx+b)1+e−(WTx+b)=1−P(y=1|x,w)
两个公式可以合并成:
P(y|x,w)=P(y=1|x,w)y[1−p(y=1|x,w)]1−y
定义目标函数#
假设我们的数据集D={(xi,yi)}ni=1xi∈Rdyi∈{0,1}
而且我们定义了如下式子:
P(y|x,w)=P(y=1|x,w)y[1−p(y=1|x,w)]1−y
我们需要最大化的目标函数:
ˆWMLE,ˆbMLE=argmaxw,bn∏i=1p(yi|xi,w,b)
注意:
∏ni=1xi=x1∗x2∗x3...∗xn
∑ni=1=x1+x2+x3...+xn
下面开始推导:
我们需要最大化的目标函数,
ˆWMLE,ˆbMLE=argmaxw,bn∏i=1p(yi|xi,w,b)
由于右边是连乘,可能会导致计算机计算的时候出现溢出,所以采取加对数log的处理方法,即
ˆWMLE,ˆbMLE=argmaxw,blog(n∏i=1p(yi|xi,w,b))
ˆWMLE,ˆbMLE=argmaxw,bn∑i=1logp(yi|xi,w,b)
注意:
logxyz=logx+logy+logz
对于最大化问题,我们一般取最小化,即
ˆWMLE,ˆbMLE=argminw,b−n∑i=1logp(yi|xi,w,b)
由于
P(y|x,w,b)=P(y=1|x,w,b)y∗[1−P(y=1|x,w,b)]1−y
所以
argminw,b−n∑i=1log[P(y=1|x,w,b)y∗[1−P(y=1|x,w,b)]1−y]
argminw,b−n∑i=1[y∗logP(y=1|x,w,b)+(1−y)log[1−P(y=1|x,w,b)]]
我们令
P(y=1|x,w)=11+e−(WTx+b)=σ(WTx+b)
由此可得
argminw,b−n∑i=1[y∗logσ(WTx+b)+(1−y)log[1−σ(WTx+b)]]
σ(x)=11+ex
σ(x)′=σ(x)∗[1−σ(x)]
logx′=1x
我们对W进行求导
∂L(W,b)∂W=−n∑i=1[yi∗σ(WTxi+b)∗[1−σ(WTxi+b)]σ(WTxi+b)∗xi+(yi−1)∗σ(WTxi+b)∗[1−σ(WTxi+b)]1−σ(WTxi+b)∗xi]
∂L(W,b)∂W=−n∑i=1[yi∗[1−σ(WTxi+b)]∗xi+(yi−1)∗σ(WTxi+b)∗xi]
∂L(W,b)∂W=n∑i=1[σ(WTxi+b)−yi]∗xi
使用梯度下降求解
经典问题#
- 是否可以用线性回归来表示P(Y|X)=WTx+b ? 为什么?
答:
不可以!
因为P(Y|X)为条件概率,那么既然是条件概率,那么就应该满足以下两个条件:
{0≤P(Y|X)≤1∑P(Y|X)=1
然而,很明显,
−∞≤WTx+b≤+∞
也就是,
P(Y|X)≠WTx+b
(0,1)≠(−∞,+∞)
综上,不可以!
- 逻辑回归分类器是一个线性分类器吗?还是非线性分类器?为什么?
答:
是的!
下面的绿色的线就是决策边界

基于下面公式:
P(y=1|x,w)=11+e−(WTx+b)
P(y=0|x,w)=e−(WTx+b)1+e−(WTx+b)
假设落在决策边界上的点,落在两边的概率是等同的
即:
P(y=1|x,w)P(y=0|x,w)=1
得出
e−(WTx+b)=1
两边加log
loge−(WTx+b)=log1
得出
−(WTx+b)=0
最终
WTx+b=0
所以很明显逻辑回归的决策边界是一个线性的!
应用场景#
- 贷款违约(会违约与不会违约)
- 广告点击(会点击与不会点击)
- 商品推荐(会购买与不会购买)
- 情感分析(正面与方面)
- 疾病诊断(阳性与阴性)
- other...
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 【译】Visual Studio 中新的强大生产力特性
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 【设计模式】告别冗长if-else语句:使用策略模式优化代码结构