摘要: ID3决策树 ID3决策树分类的根据是样本集分类前后的信息增益。 假设我们有一个样本集,里面每个样本都有自己的分类结果。 而信息熵可以理解为:“样本集中分类结果的平均不确定性”,俗称信息的纯度。 即熵值越大,不确定性也越大。 不确定性计算公式 假设样本集中有多种分类结果,里面某一种结果的“不确定性” 阅读全文
posted @ 2019-03-25 19:02 Red_Code 阅读(1890) 评论(0) 推荐(0) 编辑