摘要: 1、Xgboost对GBDT的优化 算法层面 1.XGB增加了正则项,能够防止过拟合。正则项为树模型复杂度,通过叶子节点数量和叶节点的值定义树模型复杂度。 T为叶子节点的数量,这T个叶子节点的值,组成了T维向量ω。 2.XGB损失函数是误差部分是二阶泰勒展开,GBDT 是一阶泰勒展开。因此损失函数近 阅读全文
posted @ 2019-04-16 16:52 Solong1989 阅读(704) 评论(0) 推荐(0) 编辑