摘要: GBDT和XgBoost的区别 首先,GBDT来自于融合模型中的Boosting算法,Boosting算法的原理是先从初始训练集训练出一个基学习器,再根据基学习器的表现对训练样本分布进行调整,提高训练数据集中判断错误的样本权重,降低判断正确的权重,使得先前基学习器做错的样本在后续能得到更多关注,然后 阅读全文
posted @ 2019-02-23 10:33 Feb丶1st 阅读(283) 评论(0) 推荐(0) 编辑