摘要: 上两篇说了决策树到集成学习的大概,这节我们通过adaboost来具体了解一下集成学习的简单做法。 集成学习有bagging和boosting两种不同的思路,bagging的代表是随机森林,boosting比较基础的adaboost,高级一点有GBDT,在这里我也说下我理解的这两个做法的核心区别: 随 阅读全文
posted @ 2016-10-17 23:08 2BiTT 阅读(2988) 评论(2) 推荐(1) 编辑
摘要: 如果你看了前面几篇博客,我们说了决策树,说了adaboost,这次我们说下模型训练和衡量模型的好坏 其实我们已经训练了模型了,例如决策树的生成时模型训练,adaboost的实现也是模型训练的过程,所以我们已经训练了好几个模型,只是那个具体的模型,并且我们没有把模型保存下来 可能觉得自己不是在训练模型 阅读全文
posted @ 2016-10-17 21:02 2BiTT 阅读(2977) 评论(0) 推荐(0) 编辑
摘要: 上一篇博客我们看了一个决策树分类的例子,但是我们没有深入决策树分类的内部原理。 这节我们讨论的决策树分类的所有特征的特征值都是离散的,明白了离散特征值如何分类的原理,连续值的也不难理解。 决策树分类的核心在于确定那一个特征的那一个特征值分类最有效,可能不同的场景,每个人采用的衡量方法也不一样,这里我 阅读全文
posted @ 2016-10-17 15:53 2BiTT 阅读(3060) 评论(0) 推荐(1) 编辑