2019年8月28日

XGBoost和LightGBM的参数以及调参

摘要: 一、XGBoost参数解释 XGBoost的参数一共分为三类: Note: 我下面介绍的参数都是我觉得比较重要的, 完整参数请戳官方文档 1.通用参数 2.Booster参数 n_estimator: 也作num_boosting_rounds 这是生成的最大树的数目,也是最大的迭代次数。 lear 阅读全文

posted @ 2019-08-28 17:11 tan_2810 阅读(609) 评论(0) 推荐(0) 编辑

LGBMClassifier参数

摘要: 本文链接:https://blog.csdn.net/starmoth/article/details/845867091.boosting_type=‘gbdt’# 提升树的类型 gbdt,dart,goss,rf2.num_leavel=32#树的最大叶子数,对比xgboost一般为2^(max 阅读全文

posted @ 2019-08-28 17:11 tan_2810 阅读(8881) 评论(0) 推荐(0) 编辑

LightGBM调参笔记

摘要: 本文链接:https://blog.csdn.net/u012735708/article/details/837497031. 概述在竞赛题中,我们知道XGBoost算法非常热门,是很多的比赛的大杀器,但是在使用过程中,其训练耗时很长,内存占用比较大。在2017年年1月微软在GitHub的上开源了 阅读全文

posted @ 2019-08-28 17:07 tan_2810 阅读(1957) 评论(0) 推荐(0) 编辑

LightGBM 调参方法(具体操作)

摘要: 其实,对于基于决策树的模型,调参的方法都是大同小异。一般都需要如下步骤: 所以,下面的调参例子是基于上述步骤来操作。数据集为一个(4400+, 1000+)的数据集,全是数值特征,metric采用均方根误差。 (PS:还是吐槽一下,lightgbm参数的同义词(alias)实在是太多了,有时候不同的 阅读全文

posted @ 2019-08-28 17:06 tan_2810 阅读(670) 评论(1) 推荐(1) 编辑

导航