首先就是直观的理解adaboost,就是weak classifiers 可以组合成 strong classifer。
    具体算法流程就是,首先所有samples的权重相同(也有根据正负类的个数不同,权重不同的调整)对每个feature,寻找这个feature对应的分类器,来分类,由于是只用了一个feature,所以分类效果不好,当然只要分类错误小于50%就OK,遍历所有的feature,找到一个分类错误最小的feature以及对应的阈值theta,对分类错误的samples加权,即这些很错的samples很重要,比其他的重要。接着对这些权重不一的samples再分类,继续上面的过程直到T次,这个T就是最后弱分类器的个数。Viola的paper里面也说了阈值和最后的detection rate以及false positive有关系,但是具体有什么关系说不清楚。
网上可以找到的Cuneyt Mertayak的adaboost的代码。
 
 
GML_Adaboost_matlab_toolkit理解
 
1. Ionosphere.txt 为样本数据存放文件。
2. 从文件读取的数据,一分为二。分为训练数据和测试用数据。
3. tree_node_w(3)生成存放节点的空间。
posted on 2011-11-12 18:59  Pierres  阅读(307)  评论(0编辑  收藏  举报