机器学习:集成算法 - GBDT

GBDT(Gradient Boosting Decison Tree):梯度提升决策树

GBDT 的弱学习器通常使用 CART 回归树

GBDT 的核心在于,每棵树学的是之前所有树的结论和的残差,比如 A 的年龄 18 岁,第一棵树依据特征值预测 12 岁,差 6 岁,即残差为 6 岁,那么第二棵树把 A 的年龄 Y 设为 6 岁,如果第二棵树依据特征值预测 6 岁,那累加两棵树的结论就是 A 的真实年龄,如果第二棵树的结论是 5 岁,则 A 仍存在 1 岁的残差,第三棵树里 A 的年龄 Y 变成 1 岁,然后继续训练下一棵树
  
设有样本数据 (xi,yi)i=1n
j 棵树记为 hj(x)
则由 m 棵树组成的 GBDT 输出为
  
  yi=fm(xi)=fm1(xi)+hm(xi)=j=1mhj(xi)
  
注意:每棵树都接收相同的 X 值
  
通常 GBDT 使用负梯度构建下一棵树要预测的 Y 值,设  yi(m) 是第 m 棵树要预测的值
  
  yi(m)=L(yi,fm1(xi))fm1(xi)
  
这样得出的 Y 值也称为伪残差

以上的简单例子用的是均方损失函数
  
  L(yi,fm1(xi))=12(yifm1(xi))2
  
对应的负梯度是
  
  yi(m)=L(yi,fm1(xi))fm1(xi)=yifm1(xi)=yij=1m1hj(xi)

这个伪残差结果刚好是真残差

Shrinkage(收缩)

给每棵树一个权值进行加权求和,Shrinkage 能减少过拟合是经验证明的,但没有理论证明
  
  yi=fm(xi)=fm1(xi)+αmhm(xi)=j=1mαjhj(xi)

分类

GBDT 本质是回归问题,要用于分类需要将分类转化为回归
比如通过逻辑回归函数将结果限制在 0~1 之间,代表两种分类的概率


posted @   moon~light  阅读(217)  评论(0编辑  收藏  举报
编辑推荐:
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
阅读排行:
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 提示词工程——AI应用必不可少的技术
· 地球OL攻略 —— 某应届生求职总结
· 字符编码:从基础到乱码解决
· SpringCloud带你走进微服务的世界
点击右上角即可分享
微信分享提示