Prompt入门

  Prompt,,提示词,是使用生成式AI的必备前提,好的提示词能让生成式AI给出更精准的结果,不仅能节省时间,还能节省tokens(这可是美金呀),所以在生成式AI出来后,就有Prompt Engineer提示工程师之说。于是,就有很多分享提示的文章,还有很多网站,专门收集各种场合的提示词。

  OpenAI官方也给出了提示词指南,原文见https://platform.openai.com/docs/guides/prompt-engineering。我们接下来看看给出的建议。

写出清晰的提示词

  GPT 模型对你写的提示词理解得越清晰,就会为你提供更准确和满意答案。

具体方法:
  • 详细描述的问题:描述越清晰,你就能得到越符合预期的答案
  • 让 GPT 扮演一个角色:给GPT设定一个身份,它就用该身份的思维给出结果
  • 使用分隔符:为了让 GPT更方便地阅读和理解,可以用如“----”分隔符区分不同提示词,比如操作的内容(翻译的文章)和指令(要求翻译的指令)
  • 给出GPT思考路径:对于有逻辑的内容生成,可以让 GPT 一步接一步(step by step)地给出结果
  • 提供示例:可以举一个需要的案例,让GPT参照。特别是需要输出一些固定格式的内容时非常有用
  • 提示限定:为了让输出更符合预期(节省tokens),在提示词里包含输出的限定,比如长度,和题材等

 

提供参考文本

  语言模型可以自信地发明虚假答案(叫生成式AI的幻觉),尤其是在被问及深奥的主题、引文、 URL 时,为模型提供参考文本可以帮助以更少的捏造来回答。

具体方法:

  • 指示模型使用参考文本回答

  • 指示模型使用参考文本中的引文进行回答

 

复杂任务拆分为简单的子任务

  化繁为简,把一个大而复杂的任务,分化成多个小任务,让GPT回复,如果有前后置关系,要给出明确的逻辑关系,方便GPT准确回复。

具体方法:

  • 分类:利用意图分类确定与用户查询最相关的指令

  • 分层:对于需要长时间对话的对话应用,总结或筛选先前的对话内容

  • 递归:分步总结长文档,并递归地构建完整的总结

 

让模型多想一会

  让模型进行一个相对得杂的数据运算,可以马上得不到正确的答案,但如果让模型逐步思考,就会得到较好的答案。

具体方法:

  • 在匆忙得出结论之前,指示模型制定自己的解决方案

  • 使用内心独白或一系列查询来隐藏模型的推理过程

  • 询问模型在之前的传递中是否遗漏了任何内容

 

使用外部工具

  通过向模型提供三方工具的输出,能更好地来弥补模型的弱点。比如目前通用的“文本检索系统(RAG)”,可以先从本地知识库中找到相关的内容,然后再输出给模型,让模型参考,输出更贴切的内容。

  再比如数据运算,模型并不擅长,可以借助“计算器”。如果一项任务可以通过工具而不是语言模型更可靠或更高效地完成,请使用工具,这样结合两者长处,达到最佳效果。

具体方法:

  • 使用基于嵌入的搜索实现高效的知识检索

  • 使用代码执行来执行更准确的计算或调用外部 API

  • 授予模型对特定函数的访问权限

 

全面系统的测试

  如果能对性能进行量化,那么就能更好地提高性能(有了度量衡,就能量化了)。量化模型输出结果的质量,不断优化提示词,提高变化后的输出质量。

具体方法:

  • 根据标准答案的参考评估模型输出效果

  文章来源微信公众号

  想要更快更方便的了解相关知识,可以关注微信公众号 

posted @   刘靖凯  阅读(2)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 分享4款.NET开源、免费、实用的商城系统
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
· 记一次.NET内存居高不下排查解决与启示
点击右上角即可分享
微信分享提示