统计学习方法学习笔记-附录-拉格朗日对偶性

原始问题

假设f(x),ci(x),hj(x)是定义在Rn上的连续可微函数,考虑约束最优化问题

minxRn f(x)s.t. ci(x)0,i=1,2,,khj(x)=0,j=1,2,,l

称此约束最优化问题为原始最优化问题或原始问题,首先引入广义拉格朗日函数:

L(x,α,β)=f(x)+i=1kαici(x)+j=1lβjhj(x)

这里,x=(x(1),x(2),,x(n))TRn,αi,βj是拉格朗日乘子,αi0,考虑x的函数:

θP(x)=maxα,β,αi0L(x,α,β)

这里的下标P表示原始问题,因为ci(x)0,αi0,所以i=1kαici(x)0,类似的j=1lβjhj(x)=0,故可以得到以下结论:

θP(x)={f(x)x+otherwise

考虑极小化问题:

minxθP(x)=minxmaxα,β,αi0L(x,α,β)

上式和原始的最优化问题是等价的,也就是和原问题有相同的解,minxmaxα,β,αi0L(x,α,β)称为广义拉格朗日函数的极小极大问题,为了方便,定义原始问题的最优值p=minxθP(x)称为原始问题的值

对偶问题

定义

θD(α,β)=minxL(x,α,β)

再考虑极大化θD(α,β)=minxL(x,α,β),即:

maxα,β;αi0θD(α,β)=maxα,β;αi0minxL(x,α,β)

问题maxα,β;αi0minxL(x,α,β)称为广义拉格朗日函数的极大极小问题,可以将极大极小问题表示为约束最优化问题:

maxα,β θD(α,β)=maxα,βminxL(x,α,β)s.t. αi0,i=1,2,,k

对偶问题的最优值d=maxα,β;αi0 θD(α,β)

原始问题和对偶问题的关系

定理1

若原始问题和对偶问题都有最优值,则:

d=maxα,β;αi0minxL(x,α,β)minxmaxα,β,αi0L(x,α,β)=p

证明如下:
对任意的α,β,x

θD(α,β)=minxL(x,α,β)L(x,α,β)maxα,β,αi0L(x,α,β)=θP(x)

所以:

θD(α,β)θP(x)

由于原始问题和对偶问题均有最优值,所以:

maxα,β;αi0θD(α,β)minxθP(x)

得证。

定理2

考虑原始问题和对偶问题,假设函数f(x)ci(x)是凸函数,hj(x)是仿射函数,假设不等式约束ci(x)是严格可行的,及存在x对所有的ici(x)<0,则存在x,α,β,使得x是原问题的解,α,β是对偶问题的解,并且有:

p=d=L(x,α,β)

定理3

假设函数f(x)ci(x)是凸函数,hj(x)是仿射函数,不等式约束ci(x)是严格可行的,那么有x是原问题的解,α,β是对偶问题的解的充分必要条件是x,α,β满足下面的KKT条件(Karush-Kuhn-Tucker):

xL(x,α,β)=0αici(x)=0,i=1,2,,kci(x)0,i=1,2,,kαi0,i=1,2,,khj(x)=0,j=1,2,,l

αici(x)=0,i=1,2,,k称为KKT的对偶互补条件,由此条件可知:若αi>0,则ci(x)=0.

posted @   eryo  阅读(36)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 无需6万激活码!GitHub神秘组织3小时极速复刻Manus,手把手教你使用OpenManus搭建本
· Manus爆火,是硬核还是营销?
· 终于写完轮子一部分:tcp代理 了,记录一下
· 别再用vector<bool>了!Google高级工程师:这可能是STL最大的设计失误
· 单元测试从入门到精通
点击右上角即可分享
微信分享提示