统计学习——逻辑回归
逻辑回归(logistic regression)是统计学习中的经典分类方法,它可以处理二元分类以及多元分类。虽然名字里有”回归“两字,那么这两者又有什么关系呢?
1.从线性回归到逻辑回归
逻辑回归的原理是用逻辑函数将线性回归的结果
1.1线性回归函数
线性回归的模型是求出输出特征向量
此时
1.2二元逻辑回归模型
我们对线性回归的结果做一个函数
从图中可以看出,当
如果我们令
其中
模型的损失函数目标是极小化损失函数来得到对应的模型参数
2.二元逻辑回归的损失函数
我们用最大似然法来推导出我们的损失函数。
按照二元逻辑回归的定义,假设我们的样本输出是0或者1两类。有:
上面两个式子可以简写成一个式子,即:
得到了
似然函数为:
其中,
对似然函数对数化并取反可得到损失函数:
3.二元逻辑回归的损失函数的优化策略
对于二元逻辑回归的损失函数最小化,常见的有梯度下降法,坐标轴下降法,拟牛顿法,这里我只给出有关梯度下降法的代数推
导,具体参考4. 二元逻辑回归的损失函数的优化方法
4.二元逻辑回归的正则化
逻辑回归也会面临过拟合,我们可以使用正则化来避免过拟合。
在经验风险最小化的基础上,尽可能采用简单的模型,可以有效提高泛化预测精度。如果模型过于复杂,变量值稍微有点变动,就会引起预测精度问题。正则化之所以有效,就是因为其降低了特征的权重,使得模型更为简单。
正则化一般会采用
逻辑回归的
二元逻辑回归的
二元逻辑回归的L2正则化损失函数表达式如下:
逻辑回归的L2正则化损失函数的优化方法和普通的逻辑回归类似。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 【自荐】一款简洁、开源的在线白板工具 Drawnix