基于大模型的优质Prompt开发课(1)--学习笔记ing
大规模与训练语言模型(LLMs) Large-scale and trained language model
近十年深度学习模型主要更迭
当模型能够习得的知识量级越来越大,其生成的内容亦呈现出无线可能
为什么大模型能够如此强大的表现力
大模型(LLMs)涌现出的三大能力:
上下文学习(In-cotnext learning)
上下文学习是一种机器学习技术,用于从给定的上下文中预测目标变量的值。在自然语言处理(NLP)领域,上下文学习已经被广泛应用于命名实体识别、关系提取、问答系统等任务。
上下文学习的基本思想是,通过分析大量的文本数据,学习如何将上下文中的信息与目标变量相关联。具体来说,上下文学习器会维护一个词典,其中包含特定上下文中出现的特定词汇及其含义。在此基础上,学习器还会通过监督学习来更新词典,以增加新的关联规则。预测时,上下文学习器会通过分析当前上下文中的词汇和语法结构,并将其与词典中的规则进行比较,以确定目标变量的预测值。
上下文学习已经被应用于各种自然语言处理任务,包括实体识别、情感分析、问答系统等。在命名实体识别方面,上下文学习已被证明是一种有效的技术,可以准确地识别同时出现在一个上下文中的实体。在问答系统中,上下文学习可以帮助生成更准确、更自然的问答句子。此外,在自然语言生成和对话生成方面,上下文学习也有着广泛的应用前景。
总之,上下文学习是一种强大的技术,已经在NLP领域得到了广泛的应用和研究。它可以帮助我们更好地理解和处理自然语言数据,并在各种自然语言处理任务中获得更好的性能。
指令遵循(Instruction-following)
指令遵循是指聊天机器人根据用户的指令来执行相应的操作。指令遵循是聊天机器人的一个重要特征,因为它可以帮助聊天机器人更好地理解用户的意图,并根据这些意图执行相应的操作。
思维链模推理(COT,Chain-of-toughts)
思维链是指思考时依照逐级分析、循序推断、左顾右盼等模式深入解决问题。当存在新观点,相对比之前旧有观点正确,无法通过直接的逻辑推理得到,需要在原有观点的基础上,进行合理的推断,从而得到新的观点。
思维链模推理是一种高效的解决问题的方法,通过以上几个环节能够最大限度地挖掘出所有观点中隐藏的信息,并从中得到新的见解。这种方法可以帮助人们更好地理解问题,并找到最优的解决方案。
Prompt基本定义:驱动大模型进行表达的文本描述
For example:
为什么优质Prompt才能生成优质内容
一般描述×
更好的描述√(一般需要多生成几次)
AIGC:新一代内容生产方式
从业者 - 高效工具
- 更精细化的内容打磨
- 更有深度的创意创作
企业 - 降本增效
- 更高效的资源分配
- 更稳定的业务发展
产业 - 代际革新
- 生产方式优化
- 促进整体效率提升
- 优化资源配置
如何定义优质Prompt
开始构建优质Prompt
第一步:简单了解大模型生成原理
第二步:写出一个基础的Prompt
优质的Prompt示例