【机器学习速成宝典】模型篇05朴素贝叶斯【Naive Bayes】(Python版)

目录

  先验概率与后验概率

  条件概率公式、全概率公式、贝叶斯公式

  什么是朴素贝叶斯(Naive Bayes)

  拉普拉斯平滑(Laplace Smoothing)

  应用:遇到连续变量怎么办?(多项式分布,高斯分布)

  Python代码(sklearn库)


 

先验概率与后验概率 

  引例

  想象有 A、B、C 三个不透明的碗倒扣在桌面上,已知其中有(且仅有)一个瓷碗下面盖住一个鸡蛋。此时请问,鸡蛋在 A 碗下面的概率是多少?答曰 1/3。
  现在发生一件事:有人揭开了 C 碗,发现 C 碗下面没有蛋。此时再问:鸡蛋在 A 碗下面的概率是多少?答曰 1/2。注意,由于有“揭开C碗发现鸡蛋不在C碗下面”这个新情况,对于“鸡蛋在 A 碗下面”这件事的主观概率由原来的 1/3 上升到了1/2。这里的先验概率就是 1/3,后验概率是 1/2。
也就是说“先”和“后”是相对于引起主观概率变化的那个新情况而言的。


条件概率公式、全概率公式、贝叶斯公式

  条件概率公式

  在事件B发生的条件下,A发生的概率

  换一种写法:

 

 

  理解了条件概率公式后,用一个引例介绍后面两个公式:村子里有三个小偷,事件B={村子失窃},已知小偷们的偷窃成功率依次是,除夕夜去偷的概率依次是

  全概率公式

  求:村庄除夕夜失窃的概率

  

 

  贝叶斯公式

  求:在村子失窃的条件下,偷窃者是某个小偷的概率

  

什么是朴素贝叶斯(Naive Bayes) 

  引例

  有一个训练集包含100个人,特征1是皮肤颜色(黑、黄)、特征2是个人资产情况(富、穷),标记是地区(非洲、亚洲)。在训练集中有60个非洲人(黑穷*47, 黑富*1, 黄穷*11, 黄富*1),有40个亚洲人(黑穷*1, 黄穷*32, 黄富*7)。请分别训练一个朴素贝叶斯模型。(作者这里不存在任何人种歧视的观点)

  先计算先验概率:

 

  再计算每一个特征的条件概率:

  到此,已经完成了朴素贝叶斯模型所有参数的计算,模型学习完毕。

  假设新来了一个人,他的特征是【[黑,穷],地区=?】,请用朴素贝叶斯模型预测一下他的地区。

  

  根据计算结果,模型会将这个人的地区预测为非洲。

 

  二娃:你这个例子扯了这么半天,虽然我看明白了整套训练和预测的过程,可是,如何哪里体现了“朴素”和“贝叶斯”呢?

  先说“朴素”,在例子中的体现就是:假设特征间是独立的(忽略皮肤颜色和资产情况的联系)。从而变成了“低配版的贝叶斯模型”,称为“朴素贝叶斯”。优点是可以减少需要估计的参数的个数;缺点是会牺牲一定的分类准确率。

  再说“贝叶斯”,例子中公式的推倒都是朴素贝叶斯,如果是贝叶斯的话预测的公式是:

可以发现,朴素贝叶斯模型需要计算的参数个数为:

是线性增长的;而贝叶斯模型需要计算的参数个数为:

是指数增长的,实际是不可行的。

 

  翠花:能不能用简练的语言叙述朴素贝叶斯的工作原理?

  训练:先根据数据集,计算标记(地区)的先验概率,再计算每一个特征(肤色和财产)的条件概率。

  预测:当一个训练集外的黑穷人来报道,假设特征间是独立的,朴素贝叶斯模型会预测他的老家是非洲的,原理就是“非洲人里黑人的比例 * 非洲人里穷人的比例 > 亚洲人里黑人的比例 * 亚洲人里穷人的比例”。这个乘积其实就是后验概率,贝叶斯模型会将实例分到后验概率最大的类中。

 

   李航《统计学习方法》中的定义

  朴素贝叶斯(naive Bayes) 法是基于贝叶斯定理与特征条件独立假设的分类方法。对于给定的训练数据集,首先基于特征条件独立假设学习输入/输出的联合概率分布;然后基于此模型,对给定的输入x,利用贝叶斯定理求出后验概率最大的输出y。朴素贝叶斯法实现简单,学习与预测的效率都很高,是一种常用的方法。

 

拉普拉斯平滑(Laplace Smoothing)

  继续上文的引例,考虑一个这样的问题:如果已知“某人的地区完全依靠其肤色的就能确定,资产情况是一个对判断地区没有参考价值的特征”,当来了一个黑穷人的时候,我们要算

如果根据训练集计算出,发现(式1)<(式2),则把一个黑穷人预测为亚洲人,分类产生偏差了。原因在于:如果出现某个要估计的概率值为0的情况时,会影响到后验概率的计算结果。

  解决这一问题的方法是使用平滑操作,即令先验概率公式变为:

每个特征的条件概率公式变为:

  式子中,等价于在随机变量各个取值的频数上赋予一个正数,当时,称为拉普拉斯平滑。

 

  这里附一个李航《统计学习方法》中的例子

 

应用:遇到连续变量怎么办?(多项式分布,高斯分布)

  首先了解下多项式分布、正态分布

  多项式分布

  我们扔一个骰子,重复扔n次,点数1~6的出现次数分别为(x1,x2,x3,x4,x5,x6)时的概率构成多项式分布。

  正态分布(高斯分布)

  正态曲线呈钟型,两头低,中间高,左右对称因其曲线呈钟形,因此人们又经常称之为钟形曲线。

 

  引例中的朴素贝叶斯模型假设特征的条件概率分布满足多项式分布。

  当特征是连续变量的时候,运用多项式朴素贝叶斯分类器模型就会导致很多待估测的参数是0(不做平滑的情况下),此时即使做平滑,所得到的条件概率也难以描述真实情况。所以处理连续的特征变量,应该采用高斯朴素贝叶斯分类器模型(假设特征的条件概率分布满足正态分布)。

 

  举个例子(维基百科):

  我们要做一个性别分类,观测的特征包括:身高、体重、脚的尺寸。

  现有训练集:

 

  根据训练集计算一些参数:

 

  要对测试集进行性别预测:

 

  计算过程:

  结果:预测为女性的概率高于预测为男性的概率,因此,将其预测为女性。

 

Python代码(sklearn库)

# -*- coding: utf-8 -*-
import numpy as np
from sklearn.datasets import load_iris
from sklearn import naive_bayes

iris = load_iris()
trainX = iris.data
trainY = iris.target
clf=naive_bayes.GaussianNB()  #高斯分布,没有参数
# clf=naive_bayes.MultinomialNB()  #多项式分布

clf.fit(trainX,trainY)
print "训练准确率:" + str(clf.score(trainX,trainY))
print "测试准确率:" + str(clf.score(trainX,trainY))

'''
训练准确率:0.96
测试准确率:0.96
'''

 

posted @ 2017-11-27 20:41  黎明程序员  阅读(6771)  评论(0编辑  收藏  举报