REALM Retrieval-Augmented Language Model Pre-Training

目录

Guu K., Lee K., Tung Z., Pasupat P. and Chang M. REALM: Retrieval-augmented language model pre-training. ICML, 2020.

赋予生成模型检索的能力.

REALM

  • 如上图所示, 作者希望实现这样一个事情: 给定一个'预测'任务, 如 "The [MASK] at the top of the pyramid", 作者不希望像一般的模型一样直接从条件分布 p(y|x) 中采样. 而是

    1. 首先通过 x 检索得到相似的文档 z;
    2. 然后通过 (x,z) 一起得到 pϕ(y|x,z).
  • 我们可以将检索的过程建模成另一个条件模型:

    pθ(z|x):=expf(x,z)zexpf(x,z),

    其中

    f(x,z)=Embedinput(x)TEmbeddoc(z)T,

    为一 score function.

  • 类似的, pϕ(y|x,z) 采用另一个 encoder 去建模.

  • 整体训练依旧采取普通的极大似然:

    maxθ,ϕp(y|x)=zpϕ(y|z,x)pθ(z|x),

    当然了, 我们不可能真的直接计算这个边际密度函数, 实际中, 我们根据 pθ(z|x) 得到 Top-k 的文档, 然后进行训练.

  • 一个容易存在的疑惑是, 这种方式是否能够训练好 θ, 作者给出了一种解释:

导数会促使 p(y|z,x)>p(y|x) 的文档和 x 的 score f(x,z) 变大.

  • 此外, 在实际中, 我们还需要如下的一些操作以保证充分训练:

    1. Salient span masking: 即尽可能多 mask 比较重要的 spans;
    2. Null document: 有些 masking 的任务不需要检索, 我们可以加入 numm document ;
    3. Prohibiting trivial retrievals: 如果预训练的 corpus 和检索的库是相同的, 显然会导致平凡解, 在训练中需要剔除这部分信息;
    4. Initialization: θ 需要一个合适的初始化, 以避免生成过程直接无视 retriever. 作者是采取 BERT pre-training.
  • 另外, retriever 采取的是异步的更新方式.

posted @   馒头and花卷  阅读(121)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 【译】Visual Studio 中新的强大生产力特性
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 【设计模式】告别冗长if-else语句:使用策略模式优化代码结构
点击右上角即可分享
微信分享提示