【数据仓库与数据挖掘 - 决策树分类算法】信息量、无条件熵、条件熵、信息增益

决策树分类算法,针对离散数据来进行预测的。

ID3算法

缺点1:用信息增益来作为选择分支属性标准的话,偏向于取值较多的那个属性

缺点2:只能处理离散型的属性

缺点3:对于比较小的数据集是有效的

缺点4:可能会出现过度拟合的问题

1.信息增益

描述属性(条件属性)

类别属性(分类属性)“也是预测的对象”

 

信息增益=无条件熵-条件熵

G(C,Ak) = E(C) - E(C,Ak)

 

例题:

对于如表6.14所示的训练数据集。构造其决策树。有一个客户信息如下:X=(有房=‘否’,婚姻状况=‘已婚’,年收入=‘中’),采用决策树分类法,预测该客户的拖欠贷款类别。

 

 

 结果:求得的年收入的信息增量最大,所以年收入是根节点(决策属性)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

posted @ 2020-04-20 21:38  东耳听风  阅读(1786)  评论(0编辑  收藏  举报