机器学习之朴素贝叶斯
1.理解分类与监督学习、聚类与无监督学习。
简述分类与聚类的联系与区别。
①分类:为了确定一个点的类别,具体有哪些类别是已知的,常用的算法是KNN,是一种有监督学习。
②聚类:将一系列点分成若干类,事先是没有类别的,常用算法是K-Mean算法,是一种无监督学习。
③分类与聚类也有共同点,对于想要分析的目标点,都会记着找理他最近的点,即二者都用到NN算法。
简述什么是监督学习与无监督学习。
①监督学习:监督学习(数据集有输入和输出数据):通过已有的一部分输入数据与输出数据之间的相应关系。生成一个函数,将输入映射到合适的输出,比如分类。
②无监督学习:无监督学习(数据集中只有输入):直接对输入数据集进行建模,比如聚类。
2.朴素贝叶斯分类算法 实例
利用关于心脏病患者的临床历史数据集,建立朴素贝叶斯心脏病分类模型。
有六个分类变量(分类因子):性别,年龄、KILLP评分、饮酒、吸烟、住院天数
目标分类变量疾病:
–心梗
–不稳定性心绞痛
新的实例:–(性别=‘男’,年龄<70, KILLP=‘I',饮酒=‘是’,吸烟≈‘是”,住院天数<7)
最可能是哪个疾病?
上传手工演算过程。
|
性别 |
年龄 |
KILLP |
饮酒 |
吸烟 |
住院天数 |
疾病 |
1 |
男 |
>80 |
1 |
是 |
是 |
7-14 |
心梗 |
2 |
女 |
70-80 |
2 |
否 |
是 |
<7 |
心梗 |
3 |
女 |
70-81 |
1 |
否 |
否 |
<7 |
不稳定性心绞痛 |
4 |
女 |
<70 |
1 |
否 |
是 |
>14 |
心梗 |
5 |
男 |
70-80 |
2 |
是 |
是 |
7-14 |
心梗 |
6 |
女 |
>80 |
2 |
否 |
否 |
7-14 |
心梗 |
7 |
男 |
70-80 |
1 |
否 |
否 |
7-14 |
心梗 |
8 |
女 |
70-80 |
2 |
否 |
否 |
7-14 |
心梗 |
9 |
女 |
70-80 |
1 |
否 |
否 |
<7 |
心梗 |
10 |
男 |
<70 |
1 |
否 |
否 |
7-14 |
心梗 |
11 |
女 |
>80 |
3 |
否 |
是 |
<7 |
心梗 |
12 |
女 |
70-80 |
1 |
否 |
是 |
7-14 |
心梗 |
13 |
女 |
>80 |
3 |
否 |
是 |
7-14 |
不稳定性心绞痛 |
14 |
男 |
70-80 |
3 |
是 |
是 |
>14 |
不稳定性心绞痛 |
15 |
女 |
<70 |
3 |
否 |
否 |
<7 |
心梗 |
16 |
男 |
70-80 |
1 |
否 |
否 |
>14 |
心梗 |
17 |
男 |
<70 |
1 |
是 |
是 |
7-14 |
心梗 |
18 |
女 |
70-80 |
1 |
否 |
否 |
>14 |
心梗 |
19 |
男 |
70-80 |
2 |
否 |
否 |
7-14 |
心梗 |
20 |
女 |
<70 |
3 |
否 |
否 |
<7 |
不稳定性心绞痛 |
朴素贝叶斯公式:
P(X)=P(X1) P(X2) P(X3) P(X4) P(X5)P(6)=0.4*0.25*0.5*0.2*0.45*0.3=0.00135
P(y1)=0.8
P(y2)=0.2
P(x1|y1)*P(x2|y1)…P(x5|y1)*P(x6|y1)=0.4375*0.25*0.5625*0.185*0.4375*0.25=0.001244888305664062
P(x1|y2)*P(x2|y2)…P(x5|y2)*P(x6|y2)=0.25*0.25*0.25*0.25*0.5*0.5=0.0009765625
新实例得心梗的概率:
P(y1|X)=[(0.001244888305664062*0.8)/0.00135]*100%≈74.8%
新实例得不稳定心绞痛的概率:
P(y2|X)=[( 0.0009765625*0.2)/0.00135]*100%=14.5%
可知该新实例患心梗几率大于患不稳定心绞痛。
3.使用朴素贝叶斯模型对iris数据集进行花分类。
尝试使用3种不同类型的朴素贝叶斯:
- 高斯分布型
- 多项式型
- 伯努利型
并使用sklearn.model_selection.cross_val_score(),对各模型进行交叉验证。
# -*- coding:utf-8 -*- # 开发人员:爱飞的大白鲨 # 开发时间:2020/5/9 15:59 # 文件名称:朴素贝叶斯.py #高斯朴素贝叶斯算法实现iris数据集分类 from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split from sklearn.model_selection import cross_val_score from sklearn .naive_bayes import GaussianNB, MultinomialNB, BernoulliNB iris=load_iris() data=iris['data'] target=iris['target'] #高斯分布模型 GNB_model=GaussianNB() GNB_model.fit(data,target) G_pre=GNB_model.predict(data) print("高斯分布模型准确率:%.3f"%(sum(G_pre == target)/len(data))) #进行交叉验证 G_scores=cross_val_score(GNB_model,data,target,cv=10) print('进行交叉验证后,高斯分布模型的精确率:%.3f' % G_scores.mean()) # 多项式型 M_model=MultinomialNB() M_model.fit(data,target) M_pre=M_model.predict(data) print("多项式模型准确率为:%.3f" %(sum(M_pre == target) / len(data))) #交叉验证后 M_score = cross_val_score(M_model, data, target, cv=10) print('进行交叉验证后,多项式模型模型的精确率:%.3F' %M_score.mean()) # 伯努利型 B_model=BernoulliNB() B_model.fit(data,target) B_pre=B_model.predict(data) print("伯努利模型准确率为:%.3F"%(sum(B_pre == target) / len(data))) #交叉验证后 B_score = cross_val_score(B_model, data, target, cv=10) print('进行交叉验证后,伯努利模型的准确率:%.3F' %B_score.mean())
运行结果如下: