Ada boost学习

http://blog.csdn.net/dark_scope/article/details/14103983

 

据说在Deep Learning出来之前,SVM和Adaboost是效果最好的 两个算法,而Adaboost是提升树(boosting tree),所谓“提升树”就是把“弱学习算法”提升(boost)为“强学习算法”(语自《统计学习方法》),而其中最具代表性的也就是Adaboost了.

 

这就是Adaboost的结构,最后的分类器YM是由数个弱分类器(weak classifier)组合而成的,相当于最后m个弱分类器来投票决定分类,而且每个弱分类器的“话语权”α不一样。

 

三.原理

前一个分类器改变权重w,同时组成最后的分类器。
如果一个训练样例 在前一个分类其中被误分,那么它的权重会被加重,相应地,被正确分类的样例的权重会降低使得下一个分类器 会更在意被误分的样例。
 
 
posted @ 2017-01-19 11:08  blcblc  阅读(304)  评论(0编辑  收藏  举报