Learning Models with Uniform Performance via Distributionally Robust Optimization
目录
大致内容
-
本文系统介绍了了如何处理 DRO 问题:
其中 是一凸函数,
为 -divergence, 由此可以定义 uncertainty region:
-
让我们用人话说就是, 我们希望得到这样的一个最优的参数 , 它不仅使得在当前分布 上是优良的, 在与 相近 (由 uncertainty region 定义)的其它分布上也是优良的. 这一诉求在实际训练模型的时候是很有用的:
- 在实际中我们只有估计 ;
- 训练的数据分布和测试的数据分布往往有偏差, 但是一般来说这两种分布是相近的, 所以如果我们在 的 uncertainty region 上进行一个整体的优化, 那么就保证更好地一个泛化性.
-
作者给出, 当我们只考虑 Cressie-Read family 地 f-divergences:
时有
其中 , .
-
可以注意到, 实际上 只统计了那些大于 的损失, 这意味着, DRO 实际上是一种更关注'少数'群体 (tail) 的一种优化方案, 所以会有更佳的鲁棒性和公平性.
-
更多例子请回看原文.
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 【自荐】一款简洁、开源的在线白板工具 Drawnix