逻辑回归原理总结
在线性回归模型中,拟合函数
二分类模型
对于二分类模型,Sigmoid函数正是这样一个联系函数:
注:Sigmoid函数是指形似S型的函数,自变量趋近于正无穷时,因变量无限趋近于1,自变量趋近于负无穷时,因变量无限趋近于0,但不能取到0和1这两个值。与感知机相比,Sigmoid 神经元经过修改,使其权重和偏差的微小变化仅导致其输出发生微小变化。有时也将Sigmoid函数称为逻辑函数。
若将
从上面式子可以看到,线性回归中用到Sigmoid函数其实就是对数几率函数,对线性回归模型的预测结果取对数几率使其结果无限逼近0和1。因此,对应的模型称为“对数几率回归”(logistic regression)。我们平时提到的逻辑回归,指的就是对数几率回归。其数学目的是求解能够让模型对数据拟合程度最高的参数
逻辑回归的损失函数
逻辑回归的损失函数是由极大似然估计推导而来的。
具体推导过程:假设有两个标签0和1(二分类问题),若将1-1式中的
1-3和1-4合并可改写为:
似然函数为:
对似然函数取对数后再乘以
多分类模型
对于多分类问题,最经典的拆分策略有三种:OvO (one vs. one,一对一)、OvR (one-vs-rest,一对其余)和MvM (many vs. many, 多对多)。对于N个类别的多分类学习,
- OvO是指将N个类别两两配对,产生
个二分类任务。 - OvR是指在N个类别的多分类学习中,每次将一个类的样本作为正例,其他类的所有样本都作为反例来训练N个分类器。
- MvM是指每次将若干个类作为正类,若干个其他类作为反类。
总结
对于逻辑回归,虽然名字中有“回归”二字,实际上却是一种分类学习方法。
逻辑回归既可以用来处理二分类问题,也可以用来做多分类。在二分类中,使用Sigmoid函数作为联系函数;在多分类中,采用Softmax函数作为联系函数。
对数几率回归的优点:
- 对线性关系的拟合效果非常好
- 计算快,优于SVM和随机森林
- 输出结果不仅预测出类别,还可得到近似概率预测
- 抗噪能力强
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律