会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
deephub
overfit深度学习
博客园
首页
新随笔
联系
订阅
管理
2022年5月1日
BRIO:抽象文本摘要任务新的SOTA模型
摘要: 在 SimCLS [2]论文发布后不久,作者又发布了抽象文本摘要任务的SOTA结果 [1]。BRIO在上述论文的基础上结合了对比学习范式。 BRIO解决什么问题? 上图显示 seq2seq 架构中使用的传统 MLE 损失与无参考对比损失之间的差异。 我们通常使用最大似然估计(Maximum Like
阅读全文
posted @ 2022-05-01 10:04 deephub
阅读(192)
评论(0)
推荐(0)
编辑
公告