随笔 - 31  文章 - 2  评论 - 115  阅读 - 50万

ML二(决策树学习)

决策树学习

Decision Tree Learning

1 基本概念

  属性(attribute):树上的每个结点说明了对实例的某个属性的测试,该结点的每一个后继分支对应该属性的一个可能值。

  熵(entropy):刻画了任意样例集的纯度。S相对于c个状态的分类的熵定义为:

  信息增益(information gain):

2 决策树学习的适用问题

  • 实例是由"属性-"对来表示。
  • 目标函数具有离散的输出值。
  • 可能需要析取的描述。
  • 训练数据可以包含错误。
  • 训练数据可以包含缺少属性值的实例。

3 基本的决策树学习算法

3.1 ID3算法

  ID3算法就是在每次需要分裂时,计算每个属性的信息增益率,然后选择信息增益最大的属性进行分裂。

举例:

  第一步后形成的部分决策树

3.2 C4.5算法

  ID3算法存在一个问题,就是偏向于多值属性,例如,如果存在唯一标识属性ID,则ID3会选择它作为分裂属性,这样虽然使得划分充分纯净,但这种划分对分类几乎毫无用处。ID3的后继算法C4.5使用增益率(gain ratio)的信息增益扩充,试图克服这个偏倚。

 

C4.5算法首先定义了"分裂信息(split information",其定义可以表示成:

  C4.5选择具有最大增益率的属性作为分裂属性,其具体应用与ID3类似,不再赘述。

posted on   robert_ai  阅读(641)  评论(0编辑  收藏  举报
编辑推荐:
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
阅读排行:
· 周边上新:园子的第一款马克杯温暖上架
· Open-Sora 2.0 重磅开源!
· 分享 3 个 .NET 开源的文件压缩处理库,助力快速实现文件压缩解压功能!
· Ollama——大语言模型本地部署的极速利器
· DeepSeek如何颠覆传统软件测试?测试工程师会被淘汰吗?
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

点击右上角即可分享
微信分享提示