在写Prompt时,了解如何设定角色扮演是至关重要的。这不是毫无根据的迷信,而是有科学依据的方法。
GPT在训练过程中接触到各种质量不一的数据,有些高质量,有些低质量。默认情况下,生成的结果可能是高质量和低质量解决方案的概率均等分布。然而,当你告诉GPT你是某个领域的专家时,它会尽力将概率分布在高质量解决方案上。
上面的观点是 Andrej Karpathy在《State of GPT》的演讲中提出的,对于理解LLM非常有帮助,他的观点主要有两点:
- LLM并非追求成功,而是追求模仿。
- 要想让它成功,就需要明确告诉它你的期望。
以下是这段视频的文字内容:
在Transformer的训练过程中,使用了各种训练集,其中包含不同质量的表现。虽然Transformer可以区分出高质量和低质量解决方案,但默认情况下,它们只是模仿所有的数据,因为它们是基于语言模型进行训练的。
在实际测试中,我们需要明确要求LLM表现出色。研究论文中的实验证明,使用一些提示可以取得良好效果。例如,“让我们逐步思考”这样的提示可以将推理过程分解成多个步骤,但更好的效果是使用这样的提示:“让我们以一步一步的方式解决问题,以确保我们得到正确的答案。” 这样的提示可以引导Transformer得出更好的答案,因为此时Transformer不再将概率分散到低质量的解决方案上,尽管这听起来有些奇怪。
基本上,我们可以要求LLM提供高质量的解决方案。例如,我们可以告诉它,“你是这个话题的专家,假装你的智商是120。” 但是不要尝试要求过高的智商,因为如果你要求智商400,可能超出了数据分布的范围。更糟糕的是,你可能会得到类似科幻或角色扮演的内容。因此,我们需要找到适当的智商要求,这可能是一个U型曲线关系。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 分享4款.NET开源、免费、实用的商城系统
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
· 记一次.NET内存居高不下排查解决与启示
2015-06-26 git相关的简单命令