决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画成图形很像一棵树的枝干,故称决策树。在机器学习中,决策树是一个预测模型,他代表的是对象属性与对象值之间的一种映射关系。
在构造决策树时,我们先要清楚当前数据集上的哪些特征在划分数据分类上其决定作用。
对于数据:
dataSet = [[1,1,1,'yes'],
[1,1,0,'yes'],
[1,0,0,'no'],
[1,0,1,'yes'],
[0,1,1,'yes'],
[0,1,0,'no'],
[0,0,0,'no'],
[0,0,1,'no']]
labels = ['money','eating','felling']
第一列表示零花钱,1:有零花钱,0:零花钱花完了
第二列表示吃饭,1:已经吃过,0:还没吃饭
第三列表示心情,1:😊,0:😔
第四列表示是否出去放松:yes,no
可以通过计算其信息增益来划分数据集
通过计算信息增益来划分数据集之后就可以构建决策树了
测试算法使用决策树执行分类
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律