上一页 1 2 3 4 5 6 7 8 ··· 32 下一页
摘要: 输出解析器(0utput parsers)负责接收大型语言模型(LLM)的输出,并将其转换为更适合的格式。当你使用LLM生成任何形式的结构化数据时,这一点非常有用。 除了拥有大量不同类型的输出解析器之外,LangChain输出解析器的一个显著优势是许多解析器支持流式处理。 简单来说就是:模型输出 > 阅读全文
posted @ 2025-01-02 14:45 王竹笙 阅读(246) 评论(0) 推荐(0)
摘要: 在本教程中,我们将学习如何创建一个使用少量示例的提示模板(Prompt template)。少量示例的提示模板可以从一组示例(examples)或一个示例选择器( Exampleselector)对象构建。 使用示例集 首先,创建一个少量示例的列表。每个示例应该是一个字典,键是输入变量,值是这些输入 阅读全文
posted @ 2024-12-31 18:19 王竹笙 阅读(907) 评论(0) 推荐(0)
摘要: 了解Prompt template 提示模板是为大模型生成提示的预定义模版。 一个模板可能包括指令、少量示例,以及适合给定任务的特定上下文和问题。 PromptTemplate 使用 PromptTemplate 创建一个字符串提示的模板。 默认情况下,PromptTemplate使用 Python 阅读全文
posted @ 2024-12-31 16:36 王竹笙 阅读(485) 评论(0) 推荐(0)
摘要: Langchain, 框架快速入门 Django/Flask/Fastapi 当我们想要实现一个web后端服务时,我们可以选择手动使用Python来编写所有的功能,但这样做通常会非常耗时且容易出错。为了提高效率和稳定性,我们通常会选择使用像Django或Flask这样的web框架。 1. 因为它们提 阅读全文
posted @ 2024-12-31 10:41 王竹笙 阅读(288) 评论(0) 推荐(0)
摘要: 上干货,去掉没用的。用思维导图看起来更容易理解。 提示词--消息--大模型。 阅读全文
posted @ 2024-12-27 14:31 王竹笙 阅读(57) 评论(0) 推荐(0)
摘要: wsl终端使用pip安装library时弹出 This environment is externally managed ╰─> To install Python packages system-wide, try brew install xyz, where xyz is the packa 阅读全文
posted @ 2024-12-27 11:03 王竹笙 阅读(1799) 评论(0) 推荐(0)
摘要: 项目地址 项目官网: https://github.com/chatchat-space/Langchain-Chatchatwiki: https://github.com/chatchat-space/Langchain-Chatchat/wiki/ 向量数据库: Chroma。 轻量级。 根据 阅读全文
posted @ 2024-12-26 10:25 王竹笙 阅读(296) 评论(0) 推荐(0)
摘要: 为什么要给大模型连上网 人们有获取最新信息的需求减少大模型的幻觉 这里不再使用openai调用开发,使用国内的 智普AI进行开发。方便后边国产化。 SerpAPI SerpAPI是一种 Python 工具,提供 SerpAPI Google!搜索引擎结果 AP!和 SerpAP! 必应搜索引擎结果 阅读全文
posted @ 2024-12-24 18:39 王竹笙 阅读(705) 评论(0) 推荐(0)
摘要: stream api from openai import OpenAI client = OpenAI( # This is the default and can be omitted api_key="sk-T1SC0pSurmOOhsdGu3P9WnHv5pDEhaz6GeMyENMfnsu 阅读全文
posted @ 2024-12-24 18:17 王竹笙 阅读(82) 评论(0) 推荐(0)
摘要: Chat Completions AP Chat 模型将消息列表作为输入,并返回模型生成的消息作为输出-个 Chat Completions APl 调用的示例看起来如下 # penA api base地址:"https://api.openai.com/v1" # 老版本(v1以下的版本)0PEN 阅读全文
posted @ 2024-12-24 17:37 王竹笙 阅读(436) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 7 8 ··· 32 下一页