常见机器学习方法的优缺点及适用场景:朴素贝叶斯

朴素贝叶斯(Naive Bayes)

  特点基于贝叶斯定义特征条件(属性)独立假设的分类器方法

  优点模型所需估计的参数很少,对缺失数据不太敏感,算法也比较简单,具有很好的模型的可解释性。 朴素贝叶斯模型与其他分类方法相比具有最小的理论误差率

  缺点:属性之间相互独立,这个假设在实际应用中往往是不成立的,在属性个数比较多或者属性之间相关性较大时,分类效果不好。

  应用朴素贝叶斯算法一般应用在文本分类,垃圾邮件的分类,信用评估,钓鱼网站检测等。

  模型:

 当涉及到多个条件时,朴素贝叶斯有一个提前的假设,我们称之为 条件独立性假设(或者 简单假设:Naive),公式如下:

 而对这里来说,假设X=[x1,x2,...,xn]:

 

 为了选择后验概率最大的结果,进行概率的比较,由于分母一致,这里直接去掉分母,得到最后的计算公式:

 

  改进:属性直接完全独立的条件太强,对于这一点,有半朴素贝叶斯之类的算法通过考虑部分关联性适度改进,例如为了计算量不至于太大,我们假定每个属性只依赖另外的一个属性。解决特征之间的相关性,我们还可以使用数据降维(PCA)的方法,去除特征相关性,再进行朴素贝叶斯计算。

sklearn库:

1
2
3
4
# 连续属性
from sklearn.naive_bayes import GaussianNB
# 离散属性
from sklearn.naive_bayes import CategoricalNB

  

 

posted @   Gentle_Jan  阅读(1114)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)
点击右上角即可分享
微信分享提示