Adaboost

利用前一轮迭代弱学习器的误差率来更新训练集的权重, 提高那些前一轮中被误分类的样本的权重,让它们在后面的迭代中受到更多的重视。

在组合多个弱分类器时采用了加权求和。

 

参考博客

https://www.cnblogs.com/pinard/p/6133937.html

 

posted @ 2019-07-03 15:46  xd_xumaomao  阅读(125)  评论(0编辑  收藏  举报