第十次作业:分类与监督学习,朴素贝叶斯分类算法

简述分类与聚类的联系与区别。

 ① 联系:分类和聚类都包含一个过程:对于想要分析的目标点,都会在数据集中寻找离它最近的点。

 ② 区别:  分类是根据已知的一些样本(包括属性与类标号)来得到分类模型(即得到样本属性与类标号之间的函数),然后通过此目标函数来对只包含属性的样本数据进行分类,常用的算法是KNN,是一种有监督学习。聚类是事先并不知道任何样本的类别标号,通过某种算法来把一组未知类别的样本划分成若干类别,需要实现的目标只是把相似的东西聚到一起,常用算法是K-Means算法,是一种无监督学。

简述什么是监督学习与无监督学习。

 ① 监督学习:从标记的训练数据来推断一个功能,从正确的例子中学习,每个实例都是由一个输入对象(通常为矢量)和一个期望的输出值(也称为监督信号)组成。

 ② 无监督学习:缺乏足够的先验知识,输入X,在数据(没有被标记)中发现一些规律。

2.朴素贝叶斯分类算法 实例

利用关于心脏病患者的临床历史数据集,建立朴素贝叶斯心脏病分类模型。

有六个分类变量(分类因子):性别,年龄、KILLP评分、饮酒、吸烟、住院天数

目标分类变量疾病:

–心梗

–不稳定性心绞痛

新的实例:–(性别=‘男’,年龄<70, KILLP=‘I',饮酒=‘是’,吸烟≈‘是”,住院天数<7)

最可能是哪个疾病?

上传手工演算过程。

 

性别

年龄

KILLP

饮酒

吸烟

住院天数

疾病

1

>80

1

7-14

心梗

2

70-80

2

<7

心梗

3

70-81

1

<7

不稳定性心绞痛

4

<70

1

>14

心梗

5

70-80

2

7-14

心梗

6

>80

2

7-14

心梗

7

70-80

1

7-14

心梗

8

70-80

2

7-14

心梗

9

70-80

1

<7

心梗

10

<70

1

7-14

心梗

11

>80

3

<7

心梗

12

70-80

1

7-14

心梗

13

>80

3

7-14

不稳定性心绞痛

14

70-80

3

>14

不稳定性心绞痛

15

<70

3

<7

心梗

16

70-80

1

>14

心梗

17

<70

1

7-14

心梗

18

70-80

1

>14

心梗

19

70-80

2

7-14

心梗

20

<70

3

<7

不稳定性心绞痛

 

解答过程:

解:

    设X为患心脏病

  根据新实例:(性别=‘男’,年龄<70, KILLP=‘I',饮酒=‘是’,吸烟≈‘是’,住院天数<7)

        可求:P(x)=2/5*1/4*1/2*1/5*9/20*3/10=0.00135

在资料中患者疾病为心梗的前提下:

       患者(性别=‘男’)概率:p(x1|y1) = 7/16

       患者(年龄<70)概率:p(x2|y1) = 4/16

       患者(KILLP=‘I)概率:p(x3|y1) = 9/16

       患者(饮酒=‘是’)概率:p(x4|y1) = 3/16

       患者(吸烟≈‘是’)概率:p(x5|y1) = 7/16

       患者(住院天数<7)概率:p(x6|y1) = 4/16

同理可得:

 在资料中患者疾病为心绞病的前提下:

       患者(性别=‘男’)概率:p(x1|y2) = 1/4

       患者(年龄<70)概率:p(x2|y2) = 1/4

       患者(KILLP=‘I)概率:p(x3|y2) = 1/4

       患者(饮酒=‘是’)概率:p(x4|y2) = 1/4

       患者(吸烟≈‘是’)概率:p(x5|y2) = 2/4

       患者(住院天数<7)概率:p(x6|y2) = 2/4

在心脏病患者资料中疾病为心梗概率:4/5

在心脏病患者资料中疾病为心绞病概率:1/5

判定心脏病患者疾病为心梗概率:

           p(y1|x) = p(x1|y1)p(x2|y1)p(x3|y1)…p(x6|y1)/p(x) ≈ 75%

判定心脏病患者疾病为心绞病概率:

           p(y2|x) = p(x1|y2)p(x2|y2)p(x3|y2)…p(x6|y2)/p(x) ≈ 15%

其中:p(y1|x) > p(y2|x)

由此可知:新实例患者最可能患心梗心脏病。

 

3.使用朴素贝叶斯模型对iris数据集进行花分类。

尝试使用3种不同类型的朴素贝叶斯:

  • 高斯分布型
  • 多项式型
  • 伯努利型

并使用sklearn.model_selection.cross_val_score(),对各模型进行交叉验证。

源代码:

from sklearn.datasets import load_iris
from sklearn.naive_bayes import GaussianNB
from sklearn.naive_bayes import MultinomialNB
from sklearn.naive_bayes import BernoulliNB
from sklearn.model_selection import cross_val_score

#导入鸢尾花数据集
iris = load_iris()
x = iris["data"]
y = iris["target"]

# 1、高斯分布
gnb = GaussianNB() # 构建模型
gnb_model = gnb.fit(x,y) # 构建模型
gnb_pre = gnb_model.predict(x) # 预测模型
print("高斯分布模型准确率为:", sum(gnb_pre == y) / len(x))
# 交叉验证
print("交叉验证后")
gnb_score = cross_val_score(gnb,x,y,cv=10)
print("高斯分布模型准确率为:",gnb_score.mean(),"\n")

# 2、多项式型
mnb = MultinomialNB() # 构建模型
mnb_model = mnb.fit(x,y) # 训练模型
mnb_pre = mnb_model.predict(x) # 预测模型
print("多项式模型准确率为:", sum(mnb_pre == y) / len(x))
# 交叉验证
print("交叉验证后")
mnb_score = cross_val_score(mnb,x,y,cv=10)
print("多项式模型准确率为:",mnb_score.mean(),"\n")

# 3、伯努利型
bnb = BernoulliNB() # 构建模型
bnb_model = bnb.fit(x,y) # 训练模型
bnb_pre = bnb.predict(x) # 预测模型
print("伯努利模型准确率为:", sum(bnb_pre == y) / len(x))
# 交叉验证
print("交叉验证后")
bnb_score = cross_val_score(bnb,x,y,cv=10)
print("伯努利模型准确率为:",bnb_score.mean(),"\n")

 运行结果:

 

 

 

posted @ 2020-05-12 14:39  zxf001  阅读(258)  评论(0编辑  收藏  举报