手撸XGBoost流程(未完成)

网上的一篇文章,讲的挺清楚的。

XGBoost原理分析及实践

XGBoost的原理

xgboost原理--刘建平博客 

要注意的地方:

1.预测值y(pred)和损失函数L(y,y(hat))中的y(hat)是有一个sigmod转换的关系的,而不是直接计算的真实值y和预测值y(pred)的损失函数。

2.对损失函数求一阶和二阶导数,都是对y(hat)求的。

3.XGBoost和GBDT不太一样的地方,他没有根据基模型的准则来进行分裂(在GBDT中是根据cart树的准则进行分裂),而是直接把损失函数进行不断的推导,推出了损失函数和分裂点的关系,最后直接根据损失函数的准则进行特征选择以及切分点选择。

4.xgboost对类别变量是怎么处理的?

 按照cart树的处理方式?one vs Rest?感觉应该是的

 终于有人说清楚了XGBoost

posted on 2019-10-17 09:03  静静的白桦林_andy  阅读(260)  评论(0编辑  收藏  举报

导航