Interleaving Retrieval with Chain-of-Thought Reasoning for Knowledge-Intensive Multi-Step Questions
概
CoT (Chain of Thought) + 检索.
IRCoT
-
对于如上的问题, "In what country was Lost Gravity manufactured?" 单独问 LLM 或者单独在维基百科上搜索, 都很难得到答案. 但是通过如下步骤或许可以得到最终的答案:
- 首先将该问题在维基百科上搜索, 得到关于 《Lost Gravity》 的一些信息.
- LLM 能够从该信息中抓取到 《Lost Gravity》 的制作公司为 Mack Rides.
- 接着在维基百科中搜索 "The Lost Gradvity was manufactured by Mack Rides", 我们会得到一些关于 Mack Rides 的信息.
- 基于该信息我们能够得到 (通过 LLM 抓取) "Mack Rides" 是一家德国公司的信息.
- 最终我们能够得到答案为: Germany.
-
上面的例子就是告诉我们, 很多问题是需要检索 + 提取信息交替进行最后才能得到答案的.
- 所以 IRCoT 的步骤就是迭代如下的过程:
-
已经有了外部的信息和思维链如下:
-
将该 prompt 喂入 LLM 得到输出, 并保留第一行, 若输出中带有 "answer is" 则停止 (或者迭代次数达到上限的时候也停止).
-
将这第一行通过检索器检索出一些额外的信息, 再次进入 1.
-
代码
[official]