模拟大模型返回帮你测试,掌握如何本地测试

fake 大模型本地化测试,条件不允许的情况下,再没有真实大模型做测试用。

from langchain_community.llms.fake import FakeListLLM   # FakeListLLM 返回列表
from langchain.prompts import PromptTemplate

responses = [
    "你好,",
    "武大郎炊饼店欢迎您!!!!",
]
# 导入大模型
model = FakeListLLM(responses=responses)  # 编辑好的 list格式 responses参数

# 提示词模板
prompt_template = PromptTemplate.from_template('干撒哈')

#实例化
prompt = prompt_template.format()

# 调用计算
res = model.invoke(prompt)   # 返回第一条内容,安照顺序来
res1 = model.invoke(prompt)
res2 = model.invoke(prompt)


print(res)
print(res1)
print(res2)      # 循环到又返回第一条内容

posted @   王竹笙  阅读(5)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 如何调用 DeepSeek 的自然语言处理 API 接口并集成到在线客服系统
· 【译】Visual Studio 中新的强大生产力特性
· 2025年我用 Compose 写了一个 Todo App
点击右上角即可分享
微信分享提示