摘要: 在 SimCLS [2]论文发布后不久,作者又发布了抽象文本摘要任务的SOTA结果 [1]。BRIO在上述论文的基础上结合了对比学习范式。 BRIO解决什么问题? 上图显示 seq2seq 架构中使用的传统 MLE 损失与无参考对比损失之间的差异。 我们通常使用最大似然估计(Maximum Like 阅读全文
posted @ 2022-05-01 10:04 deephub 阅读(192) 评论(0) 推荐(0) 编辑