Adaboost
利用前一轮迭代弱学习器的误差率来更新训练集的权重, 提高那些前一轮中被误分类的样本的权重,让它们在后面的迭代中受到更多的重视。
在组合多个弱分类器时采用了加权求和。
参考博客
https://www.cnblogs.com/pinard/p/6133937.html
利用前一轮迭代弱学习器的误差率来更新训练集的权重, 提高那些前一轮中被误分类的样本的权重,让它们在后面的迭代中受到更多的重视。
在组合多个弱分类器时采用了加权求和。
https://www.cnblogs.com/pinard/p/6133937.html