Prompt入门
Prompt,,提示词,是使用生成式AI的必备前提,好的提示词能让生成式AI给出更精准的结果,不仅能节省时间,还能节省tokens(这可是美金呀),所以在生成式AI出来后,就有Prompt Engineer提示工程师之说。于是,就有很多分享提示的文章,还有很多网站,专门收集各种场合的提示词。
OpenAI官方也给出了提示词指南,原文见https://platform.openai.com/docs/guides/prompt-engineering。我们接下来看看给出的建议。
写出清晰的提示词GPT 模型对你写的提示词理解得越清晰,就会为你提供更准确和满意答案。
具体方法:- 详细描述的问题:描述越清晰,你就能得到越符合预期的答案
- 让 GPT 扮演一个角色:给GPT设定一个身份,它就用该身份的思维给出结果
- 使用分隔符:为了让 GPT更方便地阅读和理解,可以用如“----”分隔符区分不同提示词,比如操作的内容(翻译的文章)和指令(要求翻译的指令)
- 给出GPT思考路径:对于有逻辑的内容生成,可以让 GPT 一步接一步(step by step)地给出结果
- 提供示例:可以举一个需要的案例,让GPT参照。特别是需要输出一些固定格式的内容时非常有用
- 提示限定:为了让输出更符合预期(节省tokens),在提示词里包含输出的限定,比如长度,和题材等
提供参考文本
语言模型可以自信地发明虚假答案(叫生成式AI的幻觉),尤其是在被问及深奥的主题、引文、 URL 时,为模型提供参考文本可以帮助以更少的捏造来回答。
具体方法:
-
指示模型使用参考文本回答
-
指示模型使用参考文本中的引文进行回答
复杂任务拆分为简单的子任务
化繁为简,把一个大而复杂的任务,分化成多个小任务,让GPT回复,如果有前后置关系,要给出明确的逻辑关系,方便GPT准确回复。
具体方法:
-
分类:利用意图分类确定与用户查询最相关的指令
-
分层:对于需要长时间对话的对话应用,总结或筛选先前的对话内容
-
递归:分步总结长文档,并递归地构建完整的总结
让模型多想一会
让模型进行一个相对得杂的数据运算,可以马上得不到正确的答案,但如果让模型逐步思考,就会得到较好的答案。
具体方法:
-
在匆忙得出结论之前,指示模型制定自己的解决方案
-
使用内心独白或一系列查询来隐藏模型的推理过程
-
询问模型在之前的传递中是否遗漏了任何内容
使用外部工具
通过向模型提供三方工具的输出,能更好地来弥补模型的弱点。比如目前通用的“文本检索系统(RAG)”,可以先从本地知识库中找到相关的内容,然后再输出给模型,让模型参考,输出更贴切的内容。
再比如数据运算,模型并不擅长,可以借助“计算器”。如果一项任务可以通过工具而不是语言模型更可靠或更高效地完成,请使用工具,这样结合两者长处,达到最佳效果。
具体方法:
-
使用基于嵌入的搜索实现高效的知识检索
-
使用代码执行来执行更准确的计算或调用外部 API
-
授予模型对特定函数的访问权限
全面系统的测试
如果能对性能进行量化,那么就能更好地提高性能(有了度量衡,就能量化了)。量化模型输出结果的质量,不断优化提示词,提高变化后的输出质量。
具体方法:
-
根据标准答案的参考评估模型输出效果
文章来源微信公众号
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 分享4款.NET开源、免费、实用的商城系统
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
· 记一次.NET内存居高不下排查解决与启示