决策树(一)——构建决策树

决策树

说明:这篇博客是看李航老师的《统计学习方法》做的笔记总结,博客中有很多内容是摘选自李航老师的《统计学习方法》一书,仅供学习交流使用。

决策树(decision tree)是一种基本的分类与回归方法。主要讨论用于分类的决策树。

决策树模型呈树形结构,在分类问题中,表示基于特征对实例进行分类的过程。它可以认为是if-then规则集合,也可以认为是定义在特征空间与类空间上的条件概率分布。其主要优点是模型具有可读性,分类速度快。

简单来说,决策树就是一棵树,一颗决策树包含一个根节点、若干个内部结点和若干个叶结点;叶结点对应于决策结果,其他每个结点则对应于一个特征测试;分类的具体操作是从根节点开始,对实例的每一特征进行测试,根据测试结果,将实例分配到其子节点;这时,每一个子节点对应着给特征的一个取值。如此递归地对实例进行测试并分配,直至达到叶节点。最后将实例分到叶节点的类中。下面直接上个图,帮助大家理解一下:

名字体温胎生类别
小狗狗恒温哺乳动物

在这里插入图片描述

注:圆框代表内部节点,方框代表叶节点。

决策树通常包括三个步骤:特征选择决策树的生成决策树的修剪

决策树学习的目标:根据给定的训练数据集构建一个决策树模型,使它能够对实例进行正确的分类。

决策树学习的本质:从训练数据集中归纳出一组分类规则。

决策树学习的策略:以损失函数为目标函数的最小化。

特征选择

特征选择在于选取对训练数据具有分类能力的特征。这样可以提高决策树学习的效率,如果利用一个特征进行分类的结果与随机分类的结果没有很大差别,则称这个特征是没有分类能力的。经验上扔掉这样的特征对决策树学习的精度影响不大。通常特征选择的准则是信息增益信息增益比

简单来说,就是找出比较好的特征来划分特征空间。比如判断是否为哺乳动物这个例子,其中有体温和胎生两个特征,那么选哪一个作为根节点呢?而特征选择就是用来解决这个问题的方法。

经验熵、经验条件熵

为了便于说明,这里先给出熵和条件熵的定义。

在信息论与概率统计中,熵(entropy)是表示随机变量不确定性的度量。设X是一个取有限个值的离散随机变量,其概率分布为
P ( X = x i ) = p i , i = 1 , 2 , … , n P(X=x_i)=p_i,i=1,2,\dots,n P(X=xi)=pi,i=1,2,,n
则随机变量X的熵定义为
H ( X ) = − ∑ i = 1 n p i l o g 2 p i H(X)=-\sum_{i=1}^np_ilog_2p_i H(X)=i=1npilog2pi
熵越大,随机变量的不确定性就越大。

为了更好的理解熵与不确定性的关系,我们可以举一个例子

如一个普通的骰子A,扔出1-6的概率均为1/6

假设一个骰子B,扔出6的概率为50%,扔出1-5的概率为10%

则骰子A的熵为 − ( 1 6 l o g 2 1 6 ) ∗ 6 ≈ 2.585 -(\frac{1}{6}log_2\frac{1}{6})*6≈2.585 (61log261)62.585

骰子B的熵为 − 1 2 l o g 2 1 2 − 1 10 l o g 2 1 10 ∗ 5 ≈ 2.161 -\frac{1}{2}log_2\frac{1}{2}-\frac{1}{10}log_2\frac{1}{10}*5≈2.161 21log221101log210152.161

条件熵H(Y|X)表示在已知随机变量X的条件下随机变量Y的不确定性。随机变量X给定条件下随机变量Y的条件熵(conditional entropy)H(Y|X),定义为X给定条件下Y的条件概率分布的熵对X的数学期望
H ( Y ∣ X ) = ∑ i = 1 n p i H ( Y ∣ X = x i ) H(Y|X)=\sum_{i=1}^np_iH(Y|X=x_i) H(YX)=i=1npiH(YX=xi)
这里, p i = P ( x = x i ) , i = 1 , 2 , … , n p_i=P(x=x_i),i=1,2,\dots,n pi=P(x=xi),i=1,2,,n

当熵和条件熵中的概率由数据估计(特别是极大似然估计)得到时,所对应的熵和条件熵分别成为经验熵经验条件熵。

假设现在有一个数据集D,|D|表示数据集D的样本容量,即样本个数。而样本中有K个类( k = 1 , 2 , … , K k=1,2,\dots,K k=1,2,,K), ∣ C k ∣ |C_k| Ck为属于类 C k C_k Ck的样本数。

此时在数据集D上,经验熵的公式为
H ( D ) = − ∑ k = 1 K ∣ C k ∣ ∣ D ∣ l o g 2 ∣ C k ∣ ∣ D ∣ H(D)=-\sum_{k=1}^K\frac{|C_k|}{|D|}log_2\frac{|C_k|}{|D|} H(D)=k=1KDCklog2DCk
同样在上述的数据集中,特征A的取值有n个(数据集中有n个特征),其取值将数据集D划分为了n个小的子集 D i D_i Di,而子集 D i D_i Di属于类 C k C_k Ck的样本集合记为 D i k D_{ik} Dik,即 D i k = D i ∩ C k D_{ik}=D_i∩C_k Dik=DiCk

那么特征A对数据集D的经验条件熵H(D|A)
H ( D ∣ A ) = ∑ i = 1 n ∣ D i ∣ ∣ D ∣ H ( D i ) = − ∑ i = 1 n ∣ D i ∣ ∣ D ∣ ∑ k = 1 K ∣ D i k ∣ ∣ D i ∣ l o g 2 ∣ D i k ∣ ∣ D i ∣ H(D|A)=\sum_{i=1}^n\frac{|D_i|}{|D|}H(D_i)=-\sum_{i=1}^n\frac{|D_i|}{|D|}\sum_{k=1}^K\frac{|D_{ik}|}{|D_i|}log_2\frac{|D_{ik}|}{|D_i|} H(DA)=i=1nDDiH(Di)=i=1nDDik=1KDiDiklog2DiDik
为了更好的理解公式,这里引入《统计学习方法》书中的例子

ID年龄有工作有自己的房子信贷情况类别
1青年一般
2青年
3青年
4青年一般
5青年一般
6中年一般
7中年
8中年
9中年非常好
10中年非常好
11老年非常好
12老年
13老年
14老年非常好
15老年一般

该例中类别 C k C_k Ck的取值有两个否和是, C 否 = 6 , C 是 = 9 C_否=6,C_是=9 C=6C=9,则经验熵为
H ( D ) = − ∑ k = 1 K ∣ C k ∣ ∣ D ∣ l o g 2 ∣ C k ∣ ∣ D ∣ = − ∣ C 否 ∣ ∣ D ∣ l o g 2 ∣ C 否 ∣ ∣ D ∣ − ∣ C 是 ∣ ∣ D ∣ l o g 2 ∣ C 是 ∣ ∣ D ∣ = − 6 15 l o g 2 6 15 − 9 15 l o g 2 9 15 = 0.971 \begin{aligned} H(D)&=-\sum_{k=1}^K\frac{|C_k|}{|D|}log_2\frac{|C_k|}{|D|} \\ &=-\frac{|C_否|}{|D|}log_2\frac{|C_否|}{|D|}-\frac{|C_是|}{|D|}log_2\frac{|C_是|}{|D|} \\ &=-\frac{6}{15}log_2\frac{6}{15}-\frac{9}{15}log_2\frac{9}{15} =0.971 \end{aligned} H(D)=k=1KDCklog2DCk=DClog2DCDClog2DC=156log2156159log2159=0.971
该例中第一个特征的取值有3个,其中 D 1 = D 2 = D 3 = 5 D_1=D_2=D_3=5 D1=D2=D3=5 D 1 否 = 3 , D 1 是 = 2 D_{1否}=3,D_{1是}=2 D1=3D1=2 D 2 否 = 2 , D 2 是 = 3 D_{2否}=2,D_{2是}=3 D2=2D2=3 D 3 否 = 1 , D 3 是 = 4 D_{3否}=1,D_{3是}=4 D3=1D3=4,则经验条件熵为
H ( D ∣ A 1 ) = − ∑ i = 1 n ∣ D i ∣ ∣ D ∣ ∑ k = 1 K ∣ D i k ∣ ∣ D i ∣ l o g 2 ∣ D i k ∣ ∣ D i ∣ = − ∣ D 1 ∣ ∣ D ∣ ∑ k = 1 K ∣ D 1 k ∣ ∣ D 1 ∣ l o g 2 ∣ D 1 k ∣ ∣ D 1 ∣ − ∣ D 2 ∣ ∣ D ∣ ∑ k = 1 K ∣ D 2 k ∣ ∣ D 2 ∣ l o g 2 ∣ D 2 k ∣ ∣ D 2 ∣ − ∣ D 3 ∣ ∣ D ∣ ∑ k = 1 K ∣ D 3 k ∣ ∣ D 3 ∣ l o g 2 ∣ D 3 k ∣ ∣ D 3 ∣ = − 5 15 ( 3 5 l o g 2 3 5 + 2 5 l o g 2 2 5 ) − 5 15 ( 2 5 l o g 2 2 5 + 3 5 l o g 2 3 5 ) − 5 15 ( 1 5 l o g 2 1 5 + 4 5 l o g 2 4 5 ) = 0.8879432 ≈ 0.888 \begin{aligned} H(D|A_1)&=-\sum_{i=1}^n\frac{|D_i|}{|D|}\sum_{k=1}^K\frac{|D_{ik}|}{|D_i|}log_2\frac{|D_{ik}|}{|D_i|} \\ &=-\frac{|D_1|}{|D|}\sum_{k=1}^K\frac{|D_{1k}|}{|D_1|}log_2\frac{|D_{1k}|}{|D_1|}-\frac{|D_2|}{|D|}\sum_{k=1}^K\frac{|D_{2k}|}{|D_2|}log_2\frac{|D_{2k}|}{|D_2|}-\frac{|D_3|}{|D|}\sum_{k=1}^K\frac{|D_{3k}|}{|D_3|}log_2\frac{|D_{3k}|}{|D_3|} \\ &=-\frac{5}{15}(\frac{3}{5}log_2\frac{3}{5}+\frac{2}{5}log_2\frac{2}{5})-\frac{5}{15}(\frac{2}{5}log_2\frac{2}{5}+\frac{3}{5}log_2\frac{3}{5})-\frac{5}{15}(\frac{1}{5}log_2\frac{1}{5}+\frac{4}{5}log_2\frac{4}{5}) \\ &=0.8879432≈0.888 \end{aligned} H(DA1)=i=1nDDik=1KDiDiklog2DiDik=DD1k=1KD1D1klog2D1D1kDD2k=1KD2D2klog2D2D2kDD3k=1KD3D3klog2D3D3k=155(53log253+52log252)155(52log252+53log253)155(51log251+54log254)=0.88794320.888

第二个特征(有工作)的取值有2两个,其中 D 1 = 10 ( 没 有 工 作 ) , D 2 = 5 ( 有 工 作 ) D_1=10(没有工作),D_2=5(有工作) D1=10,D2=5 D 1 否 = 6 , D 1 是 = 4 D_{1否}=6,D_{1是}=4 D1=6D1=4 D 2 是 = 5 D_{2是}=5 D2=5,则经验条件熵为
H ( D ∣ A 1 ) = − ∑ i = 1 n ∣ D i ∣ ∣ D ∣ ∑ k = 1 K ∣ D i k ∣ ∣ D i ∣ l o g 2 ∣ D i k ∣ ∣ D i ∣ = − 10 15 H ( D 1 ) − 5 15 H ( D 2 ) = − 10 15 ( 4 10 l o g 2 4 10 + 6 10 l o g 2 6 10 ) − 5 15 ∗ 0 ≈ 0.324 \begin{aligned} H(D|A_1)&=-\sum_{i=1}^n\frac{|D_i|}{|D|}\sum_{k=1}^K\frac{|D_{ik}|}{|D_i|}log_2\frac{|D_{ik}|}{|D_i|} \\ &=-\frac{10}{15}H(D_1)-\frac{5}{15}H(D_2) \\ &=-\frac{10}{15}(\frac{4}{10}log_2\frac{4}{10}+\frac{6}{10}log_2\frac{6}{10})-\frac{5}{15}*0 \\ &≈0.324 \end{aligned} H(DA1)=i=1nDDik=1KDiDiklog2DiDik=1510H(D1)155H(D2)=1510(104log2104+106log2106)15500.324
其他特征同理。

代码实现经验熵、经验条件熵

代码实现经验熵计算

from math import log
# 数据集
dataSet=[[0, 0, 0, 0, 'no'],
        [0, 0, 0, 1, 'no'],
        [0, 1, 0, 1, 'yes'],
        [0, 1, 1, 0, 'yes'],
        [0, 0, 0, 0, 'no'],
        [1, 0, 0, 0, 'no'],
        [1, 0, 0, 1, 'no'],
        [1, 1, 1, 1, 'yes'],
        [1, 0, 1, 2, 'yes'],
        [1, 0, 1, 2, 'yes'],
        [2, 0, 1, 2, 'yes'],
        [2, 0, 1, 1, 'yes'],
        [2, 1, 0, 1, 'yes'],
        [2, 1, 0, 2, 'yes'],
        [2, 0, 0, 0, 'no']]
#数据集D的样本个数
num_D=len(dataSet)
#记录类别的字典
labelCounts={}
#记录数据集中的类别,并统计其个数
for featVec in dataSet:
    currentLabel=featVec[-1]                     #读取类别信息
    if currentLabel not in labelCounts.keys():   #如果读取的类别没有放入统计次数的字典,添加进去
        labelCounts[currentLabel]=0              #默认值为0
    labelCounts[currentLabel]+=1                 #计数

entropy=0.0                                   #经验熵
#计算经验熵
for key in labelCounts:
    prob=float(labelCounts[key])/num_D
    entropy-=prob*log(prob,2)                 #利用公式计算
print("数据集D的经验熵H(D):",format(entropy,'.3f'))
数据集D的经验熵H(D): 0.971

代码实现经验条件熵计算

from math import log
# 数据集
dataSet=[[0, 0, 0, 0, 'no'],
        [0, 0, 0, 1, 'no'],
        [0, 1, 0, 1, 'yes'],
        [0, 1, 1, 0, 'yes'],
        [0, 0, 0, 0, 'no'],
        [1, 0, 0, 0, 'no'],
        [1, 0, 0, 1, 'no'],
        [1, 1, 1, 1, 'yes'],
        [1, 0, 1, 2, 'yes'],
        [1, 0, 1, 2, 'yes'],
        [2, 0, 1, 2, 'yes'],
        [2, 0, 1, 1, 'yes'],
        [2, 1, 0, 1, 'yes'],
        [2, 1, 0, 2, 'yes'],
        [2, 0, 0, 0, 'no']]
'''
将数据集D按照特征划分为一个个子集
'''
def splitDataSet(dataSet, axis, value):
    retDataSet=[]
    for featVec in dataSet:
        if featVec[axis] == value:
            reduceFeatVec=featVec[:axis]
            reduceFeatVec.extend(featVec[axis+1:])
            retDataSet.append(reduceFeatVec)
    return retDataSet
'''
计算数据集的经验熵
'''
def empiricalEnt(dataSet):
    #数据集D的样本个数
    num_D=len(dataSet)
    #记录类别的字典
    labelCounts={}
    #记录数据集中的类别,并统计其个数
    for featVec in dataSet:
        currentLabel=featVec[-1]                     #读取类别信息
        if currentLabel not in labelCounts.keys():   #如果读取的类别没有放入统计次数的字典,添加进去
            labelCounts[currentLabel]=0              #默认值为0
        labelCounts[currentLabel]+=1                 #计数

    entropy=0.0                                   #经验熵
    #计算经验熵
    for key in labelCounts:
        prob=float(labelCounts[key])/num_D
        entropy-=prob*log(prob,2)                 #利用公式计算
    return entropy
'''
计算经验条件熵
'''
#特征数
features = len(dataSet[0])-1
for i in range(features):
    #获取第i个特征的所有值
    featList = [example[i] for example in dataSet]
    #创建集合uniqueValue,元素不可重复
    uniqueValue = set(featList)
    #经验条件熵
    conditionalEnt = 0.0
    #计算经验信息熵
    for value in uniqueValue:
        #划分子集
        subDataSet = splitDataSet(dataSet, i, value)
        #子集与原数据集之比
        prob = len(subDataSet)/float(len(dataSet))
        #子集经验熵
        conditionalEnt += prob*empiricalEnt(subDataSet)
    print(format(conditionalEnt,'.3f'))
    '''
    info = empiricalEnt(dataSet)-conditionalEnt
	print('第%d个特征的信息增益%.3f' %(i, info))
    '''
0.888
0.647
0.551
0.608

信息增益

特征A对训练数据集D的信息增益g(D,A),定义为集合D的经验熵H(D)与特征A给定条件下D的经验条件熵H(D|A)之差,即
g ( D , A ) = H ( D ) − H ( D ∣ A ) g(D,A)=H(D)-H(D|A) g(D,A)=H(D)H(DA)
其中经验熵H(D)表示对数据集D进行分类的不确定性,而经验条件熵H(D|A)表示在特征A给定的条件下对数据集D进行分类的不确定性。那么**信息增益就表示由于特征A而使得对数据集D进行分类得不确定性减少的程度。**那么在进行分类的时候肯定选择信息增益大的作为根节点。

而对信息增益的代码实现也很简单,只需要在上述经验条件熵的第二个for循环后加上如下代码即可

info = empiricalEnt(dataSet)-conditionalEnt
print('第%d个特征的信息增益%.3f' %(i, info))
第0个特征的信息增益0.083
第1个特征的信息增益0.324
第2个特征的信息增益0.420
第3个特征的信息增益0.363

信息增益比

在使用信息增益作为划分训练数据集的特征时,存在偏向于选择取值较多的特征的问题,使用信息增益比可以对这一问题进行校正。

定义:特征A对训练数据集D的信息增益比 g R ( D , A ) g_R(D,A) gR(D,A)定义为其信息增益g(D,A)与训练数据集D关于特征A的值的熵 H A ( D ) H_A(D) HA(D)之比,即
g R ( D , A ) = g ( D , A ) H A ( D ) g_R(D,A)=\frac{g(D,A)}{H_A(D)} gR(D,A)=HA(D)g(D,A)
其中, H A ( D ) = − ∑ i = 1 n ∣ D i ∣ ∣ D ∣ l o g 2 ∣ D i ∣ ∣ D ∣ H_A(D)=-\sum_{i=1}^n\frac{|D_i|}{|D|}log_2\frac{|D_i|}{|D|} HA(D)=i=1nDDilog2DDi,n是特征A的取值个数。

参考文章:

https://blog.csdn.net/u012328159/article/details/70184415

https://blog.csdn.net/jiaoyangwm/article/details/79525237

posted @ 2021-11-15 06:00  Kim的小破院子  阅读(191)  评论(0编辑  收藏  举报