论文1:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models (ICLR)

思维链是一系列导致最终输出的中间自然语言推理步骤,我们将这种方法称为思维链提示。

作者在算术、常识和符号推理上进行了实验,表明思维链提示优于标准提示,而且有时达到了惊人的效果。

 模型参数规模:

 大模型参数和显存换算:https://blog.csdn.net/Johntill/article/details/132629075?spm=1001.2014.3001.5506

论文2:Generalizable Chain-of-Thought Prompting in Mixed-task Scenarios with Large Language Models

作者将现有的cot方法分为:General Zero-Shot-CoT and Specific Few-Shot-CoT

并认为,前者具有很好的泛化性能,但是在具体任务上表现时又比后者差很多;而后者的泛化性能不好。

而且,现实场景中,很多任务都是混杂在一起的,无法具体区分属于哪一种任务,因此作者提出了一个新任务:混合场景下的COT问题,并在泛化和性能之间取了一个折中。

 

posted on 2024-03-14 21:35  小黑哈哈  阅读(30)  评论(0编辑  收藏  举报