test

导入HuggingFace API Token

import os
os.environ['HUGGINGFACEHUB_API_TOKEN'] = '你的HuggingFace API Token'

导入必要的库

from langchain import PromptTemplate, HuggingFaceHub, LLMChain

初始化HF LLM

llm = HuggingFaceHub(
repo_id="google/flan-t5-small",
#repo_id="meta-llama/Llama-2-7b-chat-hf",
)

创建简单的question-answering提示模板

template = """Question: {question}
Answer: """

创建Prompt

prompt = PromptTemplate(template=template, input_variables=["question"])

调用LLM Chain --- 我们以后会详细讲LLM Chain

llm_chain = LLMChain(
prompt=prompt,
llm=llm
)

准备问题

question = "Rose is which type of flower?"

调用模型并返回结果

print(llm_chain.run(question))


__EOF__

本文作者userName
本文链接https://www.cnblogs.com/pyclq/p/17850401.html
关于博主:评论和私信会在第一时间回复。或者直接私信我。
版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
声援博主:如果您觉得文章对您有帮助,可以点击文章右下角推荐一下。您的鼓励是博主的最大动力!
posted @   哈哈哈喽喽喽  阅读(6)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· winform 绘制太阳,地球,月球 运作规律
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
点击右上角即可分享
微信分享提示