大模型agent开发之上下文长处理

Lost in the middle:上下文长连接精度问题

 使用langchain工具,实现上下文长连接精度匹配问题使用huggingface托管LLM做嵌入式处理,这里选择的模型是all-MiniLM-L6-v2。根据文本对问题的相关性返回文本块,对检索结果进行排序,问题相关性越低的内容放在中间,问题相关性高的放在首尾。

复制代码
    def start(text):
        embedings = HuggingFaceBgeEmbeddings(model_name='all-MiniLM-L6-v2')

        retrieval = Chroma.from_texts(text, embedings).as_retriever(
            search_kwargs={"k": 10}
        )
        query = "经济学是什么"

        docs = retrieval.get_relevant_documents(query)

        recordering = LongContextReorder()
        reo_docs = recordering.transform_documents(docs)

        return reo_docs
复制代码

基于输入文本和嵌入模型创建一个Chroma向量存储,配置为检索器,并且指定检索返回的文档数量为10。主要是从文本中快速准确地检索出与查询内容相关的文档并进行排序,最后呈现出来。

posted @   我刀呢?  阅读(30)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
点击右上角即可分享
微信分享提示