摘要: AdaBoost训练弱分类器关注的是那些被分错的样本,AdaBoost每一次训练都是为了减少错误分类的样本。而GBDT训练弱分类器关注的是残差,也就是上一个弱分类器的表现与完美答案之间的差距,GBDT每一次训练分类器,都是为了减少这个差距。 GBDT的原理就是所有弱分类器的结果相加等于预测值,然后下 阅读全文
posted @ 2021-04-16 21:35 LLLLgR 阅读(867) 评论(0) 推荐(0) 编辑