摘要: 1.Bagging vs Boosting 共同点:都是由很多弱(weak)分类器来构成的 Bagging是有很多weak learner组成的,每个weak learner因为是过拟合,所以整个变得很弱。 2.Xgboost (1) 引言 提升树 残差=真实值-预测值 接下来再训练第二个模型,让残 阅读全文
posted @ 2020-09-03 20:02 GumpYan 阅读(475) 评论(0) 推荐(0) 编辑