langchain(2):记忆

# 预设置
llm = ChatOpenAI(temperature=0.0, model=llm_model)
memory = ConversationBufferMemory()
conversation = ConversationChain(
    llm=llm, 
    memory = memory,
    verbose=True
)

正常情况下,大语言模型不具备记忆能力(llm本身是无状态的),而现在我们使用的产品看上去有记忆,是因为借助代码,提供了历史消息作为上下文,而langchain也提供记忆存储能力

langchain提供一个ConversationBufferMemory方法来临时存储对话记忆,本质上就是提供上几轮的对话内容

memory = ConversationBufferMemory()
# 往对话中添加新内容
memory.save_context({"input": "Hi"}, 
                    {"output": "What's up"})

因为对话轮数过多会极大增加输入开销,所以有不同的记忆存储方式,通过这些降低开销

# 限制对话来降低输入开销,仅记住最后一轮对话
memory = ConversationBufferWindowMemory(k=1) 
# 查看对话历史
memory.load_memory_variables({})
# 限制对话token数量来降低输入开销
# 加入llm参数的原因是,不同的llm使用不同token计数方式
llm = ChatOpenAI(temperature=0.0, model=llm_model)
memory = ConversationTokenBufferMemory(llm=llm, max_token_limit=50)
# 让llm本身为所有历史消息生成摘要,在记忆中存储摘要
memory = ConversationSummaryBufferMemory(llm=llm, max_token_limit=100)
# 最为强大的是,向量数据存储(vector data memory)

posted on   CharXL  阅读(3)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

点击右上角即可分享
微信分享提示