摘要:
关键点来了,现在json格式是开发中是最为普遍的数据格式,尤其在前后端交互中应用十分广泛,如何让大模型返回的数据是标准的json格式? 看如下代码: from langchain.prompts import PromptTemplate from langchain_openai import C 阅读全文
posted @ 2026-02-06 10:40
万笑佛
阅读(120)
评论(0)
推荐(0)
摘要:
跟上一篇内容一样,这次我们来看如何限定大模型返回的结果值是枚举类型的。 先看代码: # 导入必要的模块 from langchain.prompts import PromptTemplate # 用于创建和管理提示模板 from langchain_openai import ChatOpenAI 阅读全文
posted @ 2026-02-05 10:56
万笑佛
阅读(172)
评论(0)
推荐(0)
摘要:
如何让大模型返回的结果是一个标准的日期格式? 如下这段代码展示了如何使用 LangChain 构建一个结构化输出链(chain),将自然语言问题(“中华人民共和国是什么时候创立的?”)通过大语言模型(LLM)转换为标准的 Python datetime 对象 from langchain.promp 阅读全文
posted @ 2026-02-04 11:52
万笑佛
阅读(212)
评论(0)
推荐(1)
摘要:
大模型输出结果通常都是文本信息,如何让他按照你期望的格式输出? 这段代码演示了如何使用LangChain将大语言模型的自由文本输出转换为结构化的字符串列表。核心目标是让模型返回逗号分隔的多个值,并通过专用解析器自动拆分为Python列表。 CommaSeparatedListOutputParser 阅读全文
posted @ 2026-02-03 13:30
万笑佛
阅读(236)
评论(0)
推荐(0)
摘要:
在AI应用中,缓存机制的经济价值不仅节省Token成本,还能消除用户等待焦虑、提升系统吞吐量、保障服务稳定性——这才是企业级应用的真正痛点。 当用户提出一个常见问题时,首次调用大模型需要经历网络传输、排队等待、模型推理等完整链路,响应时间通常在1至3秒。这个时长已超过人类对“流畅交互”的心理阈值(2 阅读全文
posted @ 2026-02-02 10:51
万笑佛
阅读(221)
评论(0)
推荐(0)
浙公网安备 33010602011771号