逻辑回归 Logistic Regression
基本公式
二项逻辑回归(binomial logistic regression model)
对数几率(log odds)函数
预设
- 用于二分类问题,
,令 则得到二项逻辑回归; - 所有样本
独立;
极大化对数似然函数
因为假设
其中
取对数再取平均获得对数似然函数
概率和似然(Probability vs Likelihood)
假设有一个概率分布函数
-
概率关注点在
,在参数 固定的情况下出现数据 的情况有多大可能。 -
似然关注点在
,选择什么参数 可以使所有样本 出现的可能性最大。
梯度下降法
为了最大化似然函数
牛顿法
用
令
得到迭代公式
事实上,
样本的线性可分性和超平面不收敛的情况
证明:当样本线性可分时,超平面不收敛。
证明方法一:
如果存在超平面
由于所有样本都被正确分类,所以
所以
证明方法二:
且以上
改善方法
添加
当
添加标签平滑(label smoothing)改善,
当
推广到多项逻辑回归
- one-vs-rest
- one-vs-one
总之,对上述每个分类进行学习,可以获得
sigmoid function
为了将在数轴上任意的
因此选择函数
使用标签
依旧构造似然函数
出于计算方便
事实上
本文作者:violeshnv
本文链接:https://www.cnblogs.com/violeshnv/p/16832220.html
版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 2.5 中国大陆许可协议进行许可。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步