集成学习

集成学习

思想:集成学习通过构建多个学习器来完成学习任务,即用多个弱学习器组合形成强学习器。

集成学习需要关注的问题:

  1. 弱学习器如何训练得到?答:改变训练数据的权值或者概率分布
  2. 如何组合弱学习器形成强学习器?答:线性加权或者投票

1. Boosting

个体学习器之间存在强依赖关系,必须串行生成弱分类器。

工作机制:

  1. 提高被前一轮弱分类器分类错误的样本权值,降低被前一轮弱分类器分类正确的样本权值,使错误样本在后续受到更多的关注。
  2. 加法模型将弱分类器线性加权组合得到强分类器。

1.1 Adaboost

Adaboost是一个加法模型,用来解决二分类问题(多分类需要看成多个二分类)

(1)f(x)=m=1MαmGm(x)(2)=α1G1(x)+α2G2(x)+...+αMGM(x)

其中αmGm(x)的分类误差率所决定,每一个弱分类器Gm(x)训练后,会提高被该分类器分类错误的样本权值,降低被分类正确的样本权值。

算法流程

  • 训练数据集:二分类数据集,标签为{-1, 1}。

  • 定义基分类器:如逻辑回归

  • 循环M次:1. 初始化/更新当前训练数据的权值分布
    2. 根据具有权值分布的训练数据集Dm训练当前基分类器Gm(x)
    3. 计算当前基分类器权值am
    4. 将amGm(x)更新到加法模型f(x)中。
    5. 判断是否满足循环退出条件。

1.1.1 初始化/更新当前训练数据的权值分布

初始化所有样本的权值都为w1i=1n,得到数据集D1

更新所有样本权值:

wmi=wm1,iZm1exp(αm1yiGm1(xi))

其中Zm1是规范化因子,目的是使得Dm成为一个概率分布

Zm1=i=1Nwm1,iexp(αm1yiGm1(xi))

解释:

wm,i={wm1,iZm1exp(αm1)Gm1(xi)=yiwm1,iZm1exp(αm1)Gm1(xi)!=yi

1.1.2 训练基分类器Gm(x)

根据具有权值分布的训练数据集Dm训练基分类器Gm(x)

如选择逻辑回归为基分类器,则使用交叉熵作为损失,梯度下降作为优化方法训练模型。

1.1.3 计算当前基分类器权值am

  1. 计算当前基分类器在训练数据集上的分类误差率emem一定在0~0.5之间。

em=i=1nP(Gm(xi)!=yi)=Gm(xi)!=yiwmi

  1. 根据分类误差率em,计算基分类器Gm(x)的权重公式

am=12log1emem

1.1.4 将amGm(x)更新到加法模型f(x)中

(3)f(x)=m=1MαmGm(x)(4)=α1G1(x)+α2G2(x)+...+αMGM(x)

1.1.5 判断是否满足循环退出条件

  1. 分类器个数是否到达M个
  2. 总分类器的误差率是否低于设定的精度

1.1.6 加法模型

  1. 预测函数:f(x)=m=1MαmGm(x;rm),其中am为基函数系数,Gm(x;rm)为基函数,rm为基函数参数。

  2. 损失函数:自定义损失函数:L(y,f(x)),如:回归问题用均方误差,分类问题用指数损失函数。

  3. 优化算法:采用前向分布算法。 不采用梯度下降算法的原因:梯度下降的缺点:整体损失最小化:mini=1NL(yi,m=1MamG(xi;rm)),单词迭代过程需要优化所有基模型的所有参数,计算量过大。

1.1.7 前向分布算法

  1. 初始化f0(x)=0
  2. 极小化损失函数:argmina,ri=1NL(yi,fm1(xi)+aG(xi;r)),即只对当前基模型的所有参数进行优化,固定前面n-1个基模型的参数。
  3. 更新当前基模型的参数a,r
  4. 得到加法模型f(x)=m=1MαmGm(x;rm)

1.1.8 指数损失函数

因为二分类问题标签是{-1,1},交叉熵损失中有log,所以会出现log(-1),所以不能用交叉熵损失。

指数损失函数:

L(y,f(x))=exp[yf(x)]=exp[ym=1MamGm(x)]=exp[y(fm1(x)+amGm(x))]

G(x)分类正确时,f(x)y同号,L(y,f(x))<=1

G(x)分类错误时,f(x)y异号,L(y,f(x))>1

将损失函数视为训练数据的权值:wmi=exp[yifm1(xi)]

优化Gm

Gm(x)=argmini=1NwmiI(yi!=G(xi))

Gm要使得分类误差率最小

优化am

am=12log1emem

推导过程:

L(y,f(x))=i=1Nexp[y(fm1(x)+amGm(x))]=i=1Nexp[yfm1(x)]×exp[yamGm(x)]=i=1Nwmi×exp[yamGm(x)]=yi!=G(xi)wmiea+yi=G(xi)wmiea=eayi!=G(xi)wmi+eayi=G(xi)wmi=eai=1Nwmi+(eaea)yi!=G(x)wmi

求导得到:

eai=1Nwmi+(eaea)yi!=G(x)wmiam=eami=1Nwmi+(eam+eam)yi!=G(xi)wmi=eamyi=G(xi)wmi+eamyi!=G(xi)wmi

令导数为0,两别 取对数,得到:

ln(eamyi=G(xi)wmi)=ln(eamyi!=G(xi)wmi)

化简,得到:

am+ln(yi=G(xi)wmi)=am+ln(yi!=G(xi)wmi)

即:

2am=ln(yi=G(xi)wmiyi!=G(xi)wmi)=ln(i=1Nwmiyi!=G(xi)wmiyi!=G(xi)wmi)

右式分子分母同时除以i=1Nwmi得到:

am=ln(1yi!=G(xi)wmii=1Nwmiyi!=G(xi)wmii=1Nwmi)=ln(1emem)

1.2 GBDT

GBDT采用决策树cart算法,被认为是统计学习中性能最好的方法之一。

GBDT也采用加法模型,回归问题采用均方误差损失,二分类问题采用指数损失,多分类采用softmax损失,一般决策问题采用自定义损失函数。采用前向分步算法优化当前子树的参数。

Lθ(yi,fm1(xi)+T(xi;θm))

1.2.1 二分类问题的提升树

基学习器:cart二分类树

损失函数:指数损失函数

相当于Adaboost算法的特殊情况:

f(x)=T(x;θ1)+T(x;θ2)+...+T(x;θm)

更新基分类器权重:基分类器权重a全部设置为1

更新样本权重:只要使用的是指数损失函数,就可以用指数损失调整样本权值,从而让基分类器学到不同内容。

1.2.2 回归问题的提升树

基学习器:cart回归树

损失函数:平方误差损失

L(y,f(x))=(yf(x))2=[yfm1(x)T(x;θm)]2=[rT(x;θm)]2

优化算法:前向分步算法构建新的训练样本,让基学习器拟合新的样本

更新样本权重:损失函数中的残差r作为新一轮训练数据的样本权重

更新基分类器权重:基分类器权重a全部设置为1

1.2.3 一般决策问题的梯度提升树(GBDT)

一般决策问题采用不同于上述两种问题的损失函数,对应的凸优化问题不一样,GBDT就是求解这种凸优化问题的通用方式。

基学习器:回归树

损失函数:一般损失函数

优化算法:前向分步算法 + 梯度提升

核心目标:每增加一个基学习器,都能使得总体损失越来越小。

L(y,fm1(x))L(y,fm(x))>0

由于fm(x)=fm1(x)+T(x;θm),且fm1(x)为常量,所以对fm(x)泰勒展开,得到:

L(y,fm(x))=L(y,fm1(x))+L(y,fm(x))fm(x)|fm(x)=fm1(x)(fm(x)fm1(x))=L(y,fm1(x))+L(y,fm(x))fm(x)|fm(x)=fm1(x)T(x;θm)

移项,得到:L(y,fm1(x))L(y,fm(x))=L(y,fm(x))fm(x)T(x;θm)

因此,当L(y,fm(x))fm(x)=T(x;θm)时,L(y,fm(x))L(y,fm1(x))T2一定大于等于0。

计算步骤:

  1. 计算当前损失函数负梯度表达式:

rm(x,y)=L(y,fm(x))fm(x)|fm(x)=fm1(x)

  1. 构造新的训练样本:将(xi,yi)带入rm,得到新一轮的训练数据集Tm=(x1,r1),(x2,r2),...,(xn,rn)
  2. 让当前基学习器拟合上述样本,得到T(x;θm)

更新样本权重:损失函数的负梯度rm作为新一轮训练数据的样本权重

更新基分类器权重:基分类器权重a全部设置为1

1.3 XGBoost

目标函数:加法模型:i=1NL(yi,fm1+Wq(xi))+j=1tΩ(fi)

其中Ω(fi)=rT+12λj=1Twj2为正则项,T表示当前回归树上叶子结点数量,wj表示第j个叶子节点的权值,正则项会累加所有t个基分类器,而公式前一项代表会计算N个样本的损失。

基学习器:回归树

优化算法:前向分步算法,在优化第t棵子树的参数时,将目标函数中前t-1棵子树的正则项参数固定,并且将N个样本的损失转化为每个样本与它落入的叶子结点的损失,即:

Obj(t)=j=1TiIjL(yi,ft1+Wq(xi))+rT+12λj=1Twj2=rT+j=1T[iIjL(yi,ft1(xi)+Wj)]+12λwj2

由于损失函数不一定为均方误差损失,可能为任意损失函数,且决策树模型是阶跃的,不能用梯度下降求解优化问题,所以需要寻找一种通用的优化求解方法,如:GBDT采用负梯度方向优化。

XGBoost采用二阶导数进行优化这个目标函数,首先将L(yi,ft1(xi)+Wj)二阶泰勒展开,其中ft1(xi)看作定值f(x0)Wj看作xx0:

L(yi,ft1(xi)+Wj)=L(yi,ft1(xi))+L(yi,ft1(xi))Wj+12L(yi,ft1(xi))Wj2=giWj+12hiWj2

其中,gi代表L(yi,ft1(xi))的简写,hi代表L(yi,ft1(xi))的简写,而L(yi,ft1(xi))作为定值在优化目标中省略。

Obj(t)=rT+j=1T[iIjL(yi,ft1(xi)+Wj)]+12λwj2=rT+j=1T[iIj(giWj+12hiWj2)]+12λwj2=rT+j=1T[WjiIjgi+12Wj2(iIjhi+λ)]=rT+j=1T[WjGj+12Wj2(Hj+λ)]

其中,Gj代表iIjgi的简写,Hj代表iIjhi的简写,也就是说对于每一个样本,我们累加它落入的叶子节点的一阶导数和二阶导数,就可以得到目标表达式。

wj=argmin(wjGj+12wj2(λ+Hj))

我们对于每一个叶子节点的值w,只需要计算落入它的样本的导数的和就行了,与其他样本和叶子节点的值无关。其中,G和H都当作常量。由于目标函数是一个凸函数,所以H大于0,λ是一个系数必然大于0,所以最小值:

wj=b2a=GjHj+λ

所以:

Obj(t)=rT12j=1TGj2Hj+λ

1.3.1 确定树结构

通过二阶导数,我们可以求得最优的叶子值w和目标函数的最小值,但我们并不知道如何选择树的中间节点的值。

可以计算决策树分裂前和分裂后的增益来选择最优的树的中间节点的划分:

gain=objbeforeobjafter

选择信息增益最大的gain作为中间节点的划分。

1.3.2 优化算法

由于确定树结构时会对所有的特征以及每个特征可能的划分计算信息增益,并且在对每个特征计算可能的划分时需要对样本按照该特征的取值进行排序,计算量非常大。为了减小计算开销,我们可以采用近似算法进行优化。

1.3.2.1 列采样

桉树随机:对于XGBoost的每一棵子树选择划分时进行特征列采样。

按层随机:对于XGBoost的每一棵子树的每一层选择划分时进行特征列采样。

1.3.2.2 特征值分桶

如果对于某个特征,要选择k个特征值作为可能的划分,则我们希望每个划分中包含的样本数量不会相差过大,即根据特征值将样本划分给为k+1个桶,每个桶中包含的样本数量近似相同。

样本不均衡情况下:采用加权分位法,即将关于叶子结点值W的目标函数凑成完全平方的形式,这样前面会多一个系数H,这个H就是样本落入叶子节点的二阶导数,把这个当作叶子节点的权值再进行分桶。

Obj(t)=rT+j=1T[WjGj+12Wj2(Hj+λ)]=rT+j=1T12Wj2λ+j=1T12Hj(2GjHjWj+Wj2)=rT+j=1T12Wj2λ+j=1T12Hj(Gj2Hj2+2GjHjWj+Wj2)=rT+j=1T12Wj2λ+j=1T12Hj(Wj(GjHj))2

这样每一个样本的数量就变为Hj个,同时可以设置一个阈值作为每个桶中加权样本的最大数量,可以通过调节这个阈值从而控制桶的数量。

与列采样相似,特征值的分桶方法也分为全局策略(桉树随机)和局部策略(按层随机)。由于划分后的特征很容不再满足全局策略的划分条件,因此局部策略好于全局策略。

1.3.3 缺失值处理

————————————未完待续——————————————

2. Bagging

个体学习器之间不存在强依赖关系,可同时并行生成弱分类器。

工作机制:

  1. 从原始样本集中使用Bootstrapping法(有放回的抽样方法,可能抽到重复的样本,相当于改变了数据分布)抽取n个训练样本。共进行k轮抽取,得到k个训练集(k个训练集相互独立)。在随机森林算法中,还会抽取一定数量的特征。
  2. k个训练集分别并行训练,得到k个模型。
  3. 将上述的k个模型通过一定方式组合起来:分类问题用投票表决的方式得到分类结果,回归问题用k个模型的均值作为最后的结果。
posted @   dzhnb  阅读(50)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· AI 智能体引爆开源社区「GitHub 热点速览」
· C#/.NET/.NET Core技术前沿周刊 | 第 29 期(2025年3.1-3.9)
· 从HTTP原因短语缺失研究HTTP/2和HTTP/3的设计差异
点击右上角即可分享
微信分享提示