Language Models are Few-Shot Learners
摘要:郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! NeurIPS 2020 Abstract 我们证明,扩展语言模型大大提高了任务不可知小样本的性能,有时甚至与最先进的微调方法相比具有竞争力。具体来说,我们训练GPT-3,这是一个具有1750亿个参数的自回归语言模型,比以前的任何非稀疏语
阅读全文
posted @ 2023-11-19 16:14