wh008

导航

11.分类与监督学习,朴素贝叶斯分类算法

1.理解分类与监督学习、聚类与无监督学习。

  简述分类与聚类的联系与区别。

  简述什么是监督学习与无监督学习。

答:

  (1)分类与聚类:

   ① 联系:分类和聚类都包含一个过程:对于想要分析的目标点,都会在数据集中寻找离它最近的点,即二者都用到了NN算法。

   ② 区别:分类是为了确定一个点的类别,具体有哪些类别是已知的,常用的算法是KNN,是一种无监督学习;聚类是将一系列点分成若干类,事先是没有类别的,常用算法是K-Means算法,是一种无监督学习。

  (2)监督学习和无监督学习:

  ①监督学习:是从标记的训练数据来推断一个功能的机器学习任务。在监督学习中,每个实例都是由一个输入对象(通常为矢量)和一个期望的输出值(也称为监督信号)组成。监督学习算法是分析该训练数据,并产生一个推断的功能,其可以用于映射出新的实例。一个最佳的方案将允许该算法来正确地决定那些看不见的实例的类标签。

   ② 无监督学习:我们有一些问题,但是不知道答案,我们要做的无监督学习就是按照他们的性质把他们自动地分成很多组,每组的问题是具有类似性质的(比如数学问题会聚集在一组,英语问题会聚集在一组,物理........)

 

2.朴素贝叶斯分类算法 实例

利用关于心脏病患者的临床历史数据集,建立朴素贝叶斯心脏病分类模型。

有六个分类变量(分类因子):性别,年龄、KILLP评分、饮酒、吸烟、住院天数

目标分类变量疾病:

–心梗

–不稳定性心绞痛

新的实例:–(性别=‘男’,年龄<70, KILLP=‘I',饮酒=‘是’,吸烟≈‘是”,住院天数<7)

最可能是哪个疾病?

上传手工演算过程。

 

性别

年龄

KILLP

饮酒

吸烟

住院天数

疾病

1

>80

1

7-14

心梗

2

70-80

2

<7

心梗

3

70-81

1

<7

不稳定性心绞痛

4

<70

1

>14

心梗

5

70-80

2

7-14

心梗

6

>80

2

7-14

心梗

7

70-80

1

7-14

心梗

8

70-80

2

7-14

心梗

9

70-80

1

<7

心梗

10

<70

1

7-14

心梗

11

>80

3

<7

心梗

12

70-80

1

7-14

心梗

13

>80

3

7-14

不稳定性心绞痛

14

70-80

3

>14

不稳定性心绞痛

15

<70

3

<7

心梗

16

70-80

1

>14

心梗

17

<70

1

7-14

心梗

18

70-80

1

>14

心梗

19

70-80

2

7-14

心梗

20

<70

3

<7

不稳定性心绞痛

 

  

 

 

 

3.使用朴素贝叶斯模型对iris数据集进行花分类。

尝试使用3种不同类型的朴素贝叶斯:

  • 高斯分布型
  • 多项式型
  • 伯努利型

并使用sklearn.model_selection.cross_val_score(),对各模型进行交叉验证。

(1)3种不同类型的朴素贝叶斯:

代码:

from sklearn.datasets import load_iris
iris = load_iris()  # 使用鸢尾花数据集

# 高斯分布型
from sklearn.naive_bayes import GaussianNB

gnb = GaussianNB()  # 建立模型
gnb_model = gnb.fit(iris.data, iris.target)  # 模型训练
gnb_pre = gnb_model.predict(iris.data)  # 预测模型
print("高斯分布模型准确率为:", sum(gnb_pre == iris.target) / len(iris.target))

# 多项式型
from sklearn.naive_bayes import MultinomialNB

mln = MultinomialNB()  # 建立模型
mln_model = mln.fit(iris.data, iris.target)  # 模型训练
mln_pre = mln_model.predict(iris.data)  # 预测模型
print("多项式模型准确率为:", sum(mln_pre == iris.target) / len(iris.target))

# 伯努利型
from sklearn.naive_bayes import BernoulliNB

bln = BernoulliNB()
bln_model = bln.fit(iris.data, iris.target)
bln_pre = bln.predict(iris.data)
print("伯努利模型准确率为:", sum(bln_pre == iris.target) / len(iris.target))

结果:

 

 

(2)交叉验证:

代码:

##交叉验证
from sklearn.model_selection import cross_val_score

# 高斯分布型
gnb_scores = cross_val_score(gnb, iris.data, iris.target, cv=10)
print("高斯分布准确率:%.3F" % gnb_scores.mean())

# 多项式型
mln_scores = cross_val_score(mln, iris.data, iris.target, cv=10)
print("多项式准确率:%.3F" % mln_scores.mean())

# 伯努利型
bln_scores = cross_val_score(bln, iris.data, iris.target, cv=10)
print("伯努利准确率:%.3F" % bln_scores.mean())

结果:

 

posted on 2020-05-11 16:22  wh008  阅读(191)  评论(0编辑  收藏  举报