随笔 - 384  文章 - 0  评论 - 35  阅读 - 142万

随笔分类 -  xgboost

xgboost.plot_importance画特征重要性,字段是中文名称时
摘要:1.一般来说我们可以使用xgboost.get_score去画图,但是如果字段名字有中文时,是会报错的 2.可以通过映射关系,从plot_importance的参数入手。但是可能会复杂一下。 3.可以使用xgb.DMatrix(tfeature_names=list),这个方法简单实用。 下面演示一 阅读全文
posted @ 2021-07-16 09:47 小小喽啰 阅读(2324) 评论(0) 推荐(0) 编辑
xgboost 原理补充说明
摘要:1. 树该怎么长 很有意思的一个事是,我们从头到尾了解了xgboost如何优化、如何计算,但树到底长啥样,我们却一直没看到。很显然,一棵树的生成是由一个节点一分为二,然后不断分裂最终形成为整棵树。那么树怎么分裂的就成为了接下来我们要探讨的关键。对于一个叶子节点如何进行分裂,XGBoost作者在其原始 阅读全文
posted @ 2021-03-15 10:59 小小喽啰 阅读(393) 评论(0) 推荐(0) 编辑
xgboost调参(纯理论)
摘要: 阅读全文
posted @ 2021-03-12 17:47 小小喽啰 阅读(117) 评论(0) 推荐(0) 编辑
xgboost如何画决策树
摘要:暂时还没有搞清楚xgboost中每一个树的权重是怎么样的,以及每个树的结果和最终的结果之间的关系是怎么样的?后面再补上, 下面如何xgboost中的决策树 # -*- coding: utf-8 -*- """ Created on Tue Mar 9 16:16:56 2021 @author: 阅读全文
posted @ 2021-03-09 20:22 小小喽啰 阅读(687) 评论(0) 推荐(0) 编辑
XGBoost 原生版本和sklearn接口版本的使用(泰坦尼克数据)
摘要:2021.3.11补充: 官网地址:https://xgboost.readthedocs.io/en/latest/python/python_api.html DMatrix 是XGBoost中使用的数据矩阵。DMatrix是XGBoost使用的内部数据结构,它针对内存效率和训练速度进行了优化 阅读全文
posted @ 2020-09-10 17:02 小小喽啰 阅读(4140) 评论(0) 推荐(0) 编辑
XGBoost基本原理
摘要:目录 一、XGBoost原理 1.1. 学习目标 1.2. 节点的划分 1.2.1 基本精确的贪心算法(Basic Exact Greedy Algorithm) 1.2.2 近似算法 1.2.3 带权重的分位数草图(Weighted Quantile Sketch) 二. XGBoost的优缺点: 阅读全文
posted @ 2020-09-10 14:59 小小喽啰 阅读(1889) 评论(0) 推荐(2) 编辑
XGBoost 参数说明
摘要:一、XGBoost参数 xgboost参数可以分为三种类型:通用参数、booster参数以及学习目标参数 General parameters:参数控制在提升(boosting)过程中使用哪种booster,常用的booster有树模型(tree)和线性模型(linear model)。 Boost 阅读全文
posted @ 2020-09-07 19:01 小小喽啰 阅读(2335) 评论(0) 推荐(0) 编辑
XGBoost 学习调参的例子
摘要:发现后面设置参数的时候,原生接口和sklearn的参数混在一起了,现在修改为 def run_xgboost(data_x,data_y,random_state_num): train_x,valid_x,train_y,valid_y = train_test_split(data_x.valu 阅读全文
posted @ 2020-08-28 16:20 小小喽啰 阅读(1635) 评论(0) 推荐(0) 编辑

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

点击右上角即可分享
微信分享提示