Learning Models with Uniform Performance via Distributionally Robust Optimization

Duchi J. C. and Namkoong H. Learning models with uniform performance via distributionally robust optimization. The Annals of Statistics, 49(3), 1378-1406, 2021.

大致内容

  • 本文系统介绍了了如何处理 DRO 问题:

    minθ{Rf(θ;P0):=supQP0{EQ[(θ;X)]:Df(QP0)ρ},}

    其中 f 是一凸函数,

    Df(QP0):=f(dQdP0)dP0

    f-divergence, 由此可以定义 uncertainty region:

    {Q:Df(QP0ρ}.

  • 让我们用人话说就是, 我们希望得到这样的一个最优的参数 θ, 它不仅使得在当前分布 P0 上是优良的, 在与 P0 相近 (由 uncertainty region 定义)的其它分布上也是优良的. 这一诉求在实际训练模型的时候是很有用的:

    1. 在实际中我们只有估计 P^0;
    2. 训练的数据分布和测试的数据分布往往有偏差, 但是一般来说这两种分布是相近的, 所以如果我们在 P^0 的 uncertainty region 上进行一个整体的优化, 那么就保证更好地一个泛化性.
  • 作者给出, 当我们只考虑 Cressie-Read family 地 f-divergences:

    fk(t):=tkkt+k1k(k1),

    时有

    Rk(θ;P)=infηR{ck(ρ)EP[((θ;X)η)+k]1k+η},

    其中 k=k/(k1), ck(ρ):=(1+k(k1)ρ)1/k.

  • 可以注意到, 实际上 Rk 只统计了那些大于 η 的损失, 这意味着, DRO 实际上是一种更关注'少数'群体 (tail) 的一种优化方案, 所以会有更佳的鲁棒性和公平性.

  • 更多例子请回看原文.

posted @   馒头and花卷  阅读(71)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
点击右上角即可分享
微信分享提示