Chain-of-Thought Prompting Elicits Reasoning in Large Language Models

目录

Wei J., Wang X., Schuurmans D., Bosma M., Ichter B., Xia F., Chi E. H., Le Q. V. and Zhou D. Chain-of-thought prompting elicits reasoning in large language models. NIPS, 2022.

Chain of Thought (CoT).

CoT

  • 标准的 Prompt 如上左图所示, 而 CoT 则如右图所示. 不同之处在于, CoT 会给出一个 step by step 推理的例子, 这有助于激发模型的潜能 (当然, 前提是模型确实有这方面的潜能, CoT 比标准的 prompt 效果好通常要求模型规模 > 10B).

  • 这篇文章 here 给了一个理论解释, 即为什么涉及到推理的问题是非常依赖 CoT 来分解问题并逐步回答的.
posted @ 2023-07-21 11:17  馒头and花卷  阅读(71)  评论(0编辑  收藏  举报