xgboost.plot_importance画特征重要性,字段是中文名称时
摘要:1.一般来说我们可以使用xgboost.get_score去画图,但是如果字段名字有中文时,是会报错的 2.可以通过映射关系,从plot_importance的参数入手。但是可能会复杂一下。 3.可以使用xgb.DMatrix(tfeature_names=list),这个方法简单实用。 下面演示一
阅读全文
posted @
2021-07-16 09:47
小小喽啰
阅读(2324)
推荐(0) 编辑
xgboost 原理补充说明
摘要:1. 树该怎么长 很有意思的一个事是,我们从头到尾了解了xgboost如何优化、如何计算,但树到底长啥样,我们却一直没看到。很显然,一棵树的生成是由一个节点一分为二,然后不断分裂最终形成为整棵树。那么树怎么分裂的就成为了接下来我们要探讨的关键。对于一个叶子节点如何进行分裂,XGBoost作者在其原始
阅读全文
posted @
2021-03-15 10:59
小小喽啰
阅读(393)
推荐(0) 编辑
xgboost如何画决策树
摘要:暂时还没有搞清楚xgboost中每一个树的权重是怎么样的,以及每个树的结果和最终的结果之间的关系是怎么样的?后面再补上, 下面如何xgboost中的决策树 # -*- coding: utf-8 -*- """ Created on Tue Mar 9 16:16:56 2021 @author:
阅读全文
posted @
2021-03-09 20:22
小小喽啰
阅读(687)
推荐(0) 编辑
XGBoost 原生版本和sklearn接口版本的使用(泰坦尼克数据)
摘要:2021.3.11补充: 官网地址:https://xgboost.readthedocs.io/en/latest/python/python_api.html DMatrix 是XGBoost中使用的数据矩阵。DMatrix是XGBoost使用的内部数据结构,它针对内存效率和训练速度进行了优化
阅读全文
posted @
2020-09-10 17:02
小小喽啰
阅读(4140)
推荐(0) 编辑
XGBoost基本原理
摘要:目录 一、XGBoost原理 1.1. 学习目标 1.2. 节点的划分 1.2.1 基本精确的贪心算法(Basic Exact Greedy Algorithm) 1.2.2 近似算法 1.2.3 带权重的分位数草图(Weighted Quantile Sketch) 二. XGBoost的优缺点:
阅读全文
posted @
2020-09-10 14:59
小小喽啰
阅读(1889)
推荐(2) 编辑
XGBoost 参数说明
摘要:一、XGBoost参数 xgboost参数可以分为三种类型:通用参数、booster参数以及学习目标参数 General parameters:参数控制在提升(boosting)过程中使用哪种booster,常用的booster有树模型(tree)和线性模型(linear model)。 Boost
阅读全文
posted @
2020-09-07 19:01
小小喽啰
阅读(2335)
推荐(0) 编辑
XGBoost 学习调参的例子
摘要:发现后面设置参数的时候,原生接口和sklearn的参数混在一起了,现在修改为 def run_xgboost(data_x,data_y,random_state_num): train_x,valid_x,train_y,valid_y = train_test_split(data_x.valu
阅读全文
posted @
2020-08-28 16:20
小小喽啰
阅读(1635)
推荐(0) 编辑