ML二(决策树学习)

决策树学习

Decision Tree Learning

1 基本概念

  属性(attribute):树上的每个结点说明了对实例的某个属性的测试,该结点的每一个后继分支对应该属性的一个可能值。

  熵(entropy):刻画了任意样例集的纯度。S相对于c个状态的分类的熵定义为:

  信息增益(information gain):

2 决策树学习的适用问题

  • 实例是由"属性-"对来表示。
  • 目标函数具有离散的输出值。
  • 可能需要析取的描述。
  • 训练数据可以包含错误。
  • 训练数据可以包含缺少属性值的实例。

3 基本的决策树学习算法

3.1 ID3算法

  ID3算法就是在每次需要分裂时,计算每个属性的信息增益率,然后选择信息增益最大的属性进行分裂。

举例:

  第一步后形成的部分决策树

3.2 C4.5算法

  ID3算法存在一个问题,就是偏向于多值属性,例如,如果存在唯一标识属性ID,则ID3会选择它作为分裂属性,这样虽然使得划分充分纯净,但这种划分对分类几乎毫无用处。ID3的后继算法C4.5使用增益率(gain ratio)的信息增益扩充,试图克服这个偏倚。

 

C4.5算法首先定义了"分裂信息(split information",其定义可以表示成:

  C4.5选择具有最大增益率的属性作为分裂属性,其具体应用与ID3类似,不再赘述。

posted on 2014-09-18 15:19  robert_ai  阅读(634)  评论(0编辑  收藏  举报