REALM Retrieval-Augmented Language Model Pre-Training
概
赋予生成模型检索的能力.
REALM
-
如上图所示, 作者希望实现这样一个事情: 给定一个'预测'任务, 如 "The [MASK] at the top of the pyramid", 作者不希望像一般的模型一样直接从条件分布 中采样. 而是
- 首先通过 检索得到相似的文档 ;
- 然后通过 一起得到 .
-
我们可以将检索的过程建模成另一个条件模型:
其中
为一 score function.
-
类似的, 采用另一个 encoder 去建模.
-
整体训练依旧采取普通的极大似然:
当然了, 我们不可能真的直接计算这个边际密度函数, 实际中, 我们根据 得到 Top-k 的文档, 然后进行训练.
-
一个容易存在的疑惑是, 这种方式是否能够训练好 , 作者给出了一种解释:
导数会促使 的文档和 的 score 变大.
-
此外, 在实际中, 我们还需要如下的一些操作以保证充分训练:
- Salient span masking: 即尽可能多 mask 比较重要的 spans;
- Null document: 有些 masking 的任务不需要检索, 我们可以加入 numm document ;
- Prohibiting trivial retrievals: 如果预训练的 corpus 和检索的库是相同的, 显然会导致平凡解, 在训练中需要剔除这部分信息;
- Initialization: 需要一个合适的初始化, 以避免生成过程直接无视 retriever. 作者是采取 BERT pre-training.
-
另外, retriever 采取的是异步的更新方式.
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 【译】Visual Studio 中新的强大生产力特性
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 【设计模式】告别冗长if-else语句:使用策略模式优化代码结构