xgboost中XGBClassifier()参数详解
http://www.cnblogs.com/wanglei5205/p/8579244.html
常规参数
booster gbtree 树模型做为基分类器(默认) gbliner 线性模型做为基分类器 silent silent=0时,不输出中间过程(默认) silent=1时,输出中间过程 nthread nthread=-1时,使用全部CPU进行并行运算(默认) nthread=1时,使用1个CPU进行运算。 scale_pos_weight 正样本的权重,在二分类任务中,当正负样本比例失衡时,设置正样本的权重,模型效果更好。例如,当正负样本比例为1:10时,scale_pos_weight=10。
模型参数
n_estimatores 含义:总共迭代的次数,即决策树的个数 调参: early_stopping_rounds 含义:在验证集上,当连续n次迭代,分数没有提高后,提前终止训练。 调参:防止overfitting。 max_depth 含义:树的深度,默认值为6,典型值3-10。 调参:值越大,越容易过拟合;值越小,越容易欠拟合。 min_child_weight 含义:默认值为1,。 调参:值越大,越容易欠拟合;值越小,越容易过拟合(值较大时,避免模型学习到局部的特殊样本)。 subsample 含义:训练每棵树时,使用的数据占全部训练集的比例。默认值为1,典型值为0.5-1。 调参:防止overfitting。 colsample_bytree 含义:训练每棵树时,使用的特征占全部特征的比例。默认值为1,典型值为0.5-1。 调参:防止overfitting。
学习任务参数
learning_rate 含义:学习率,控制每次迭代更新权重时的步长,默认0.3。 调参:值越小,训练越慢。 典型值为0.01-0.2。 objective 目标函数 回归任务 reg:linear (默认) reg:logistic 二分类 binary:logistic 概率 binary:logitraw 类别 多分类 multi:softmax num_class=n 返回类别 multi:softprob num_class=n 返回概率 rank:pairwise eval_metric 回归任务(默认rmse) rmse--均方根误差 mae--平均绝对误差 分类任务(默认error) auc--roc曲线下面积 error--错误率(二分类) merror--错误率(多分类) logloss--负对数似然函数(二分类) mlogloss--负对数似然函数(多分类) gamma 惩罚项系数,指定节点分裂所需的最小损失函数下降值。 调参: alpha L1正则化系数,默认为1 lambda L2正则化系数,默认为1
posted on 2018-09-10 21:27 TMatrix52 阅读(12876) 评论(0) 编辑 收藏 举报
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET10 - 预览版1新功能体验(一)
2017-09-10 shell export