集成学习算法

首先先附上一篇写得比较好的博主的文章,受益非浅,当初一开始学习这个的时候看过,顺便收藏了,就保存至今

https://www.cnblogs.com/Sugar-Chl/p/10146054.html

集成学习,是在各种有监督学习算法上进行一种或者多种算法进行预测,然后通过最高投票选出分类、或者通过平均、或者通过预测结果作为新的样本进行训练的方法。这样可以避免单一弱分类器上遇到的各种问题,当然训练的时间和性能要求也会高些。

集成学习算法可以分为Boosting、Bagging、Stacking三个类型的算法

1)Bagging的代表算法有 Bagging + 决策树 = 随机森林                每次都随机有放回的训练

2)Boosting的代表算法有 AdaBoost + 决策树 = 提升树                每次训练错误的分类加权重

3)Stacking的代表算法有 Gradient Boosting + 决策树 = GBDT     每次训练结果做为新的分类器的输入

其中,各种弱分类器选择上,一般都选择Decision Tree 是因为它有很多的优点,又可以进行分类,又可以进行回归

posted @ 2020-03-23 18:11  站在云端看世界  阅读(364)  评论(0编辑  收藏  举报