Fork me on GitHub

人工智能之机器学习基础——逻辑回归

逻辑回归是一种广泛应用的分类模型,尽管名字中有“回归”一词,但它主要用于解决分类问题。逻辑回归模型的核心思想是通过使用一个逻辑函数(Sigmoid 函数)将线性回归的输出映射到概率值 [0,1],从而完成分类任务。

 有个叫交叉熵损失函数实际上是负对数似然函数(Negative Log-Likelihood, NLL)的一种形式,具体来说,它是逻辑回归模型的似然函数取对数并加负号后得到的。

让我们详细推导逻辑回归的最大似然估计过程,包括如何从似然函数推导到对数似然函数,以及最终的损失函数。

 

 

 

  • 似然函数:最大化所有样本的条件概率;
  • 对数似然函数:对似然函数取对数,转化为加法形式;
  • 损失函数:最小化负对数似然;

逻辑回归通过最大化对数似然估计找到最优参数,并使用梯度下降等优化方法进行训练。

3. 逻辑回归的特点

3.1 优点

  1. 简单易解释:输出概率值,便于理解模型预测。
  2. 高效:在特征数量和样本数量较小时,训练和预测都很快。
  3. 适合线性可分数据:对于线性可分的数据,效果良好。
  4. 概率预测:模型输出的是概率,可以灵活调整决策阈值。

3.2 缺点

  1. 线性假设:模型只能拟合线性决策边界,复杂关系需要非线性扩展。
  2. 易受异常值影响:特征未标准化或存在异常值时,模型性能可能下降。
  3. 维数灾难:当特征数量过多时,模型性能可能受限。

4. 逻辑回归的扩展

4.1 正则化

  • 为防止过拟合,可以在损失函数中加入正则化项:
    • L1 正则化:稀疏解;
    • L2 正则化:防止模型参数过大,增加泛化能力。

4.2 多分类逻辑回归

  • 一对多(One-vs-Rest):将多分类问题拆解为多个二分类问题。
  • Softmax 回归:扩展 Sigmoid 函数,用于直接预测多分类概率。

5. 逻辑回归的应用

逻辑回归被广泛用于二分类问题,常见应用场景包括:

  1. 医学诊断:根据病人的体征预测是否患病;
  2. 金融风控:评估贷款用户的违约概率;
  3. 广告点击率预测:预测用户是否会点击广告;
  4. 信用卡欺诈检测:识别是否存在异常交易行为;
  5. 分类问题:如垃圾邮件过滤。

 

posted @ 2024-11-18 19:43  z_s_s  阅读(18)  评论(0编辑  收藏  举报