2023年10月7日
摘要: 本文主要讨论Langchain-Chatchat项目中自定义Agent问答的思路和实现。以"计算器工具"为例,简单理解就是通过LLM识别应该使用的工具类型,然后交给相应的工具(也是LLM模型)来解决问题。一个LLM模型可以充当不同的角色,要把结构化的Prompt模板写好,充分利用LLM的Zero/O 阅读全文
posted @ 2023-10-07 23:29 扫地升 阅读(1444) 评论(0) 推荐(0) 编辑
摘要: 在官方例子中给出了通过chain = NebulaGraphQAChain.from_llm(ChatOpenAI(temperature=0), graph=graph, verbose=True)来检索NebulaGraph图数据库。本文介绍了通过GPT2替换ChatOpenAI的思路和实现,暂 阅读全文
posted @ 2023-10-07 23:29 扫地升 阅读(264) 评论(0) 推荐(0) 编辑
摘要: 由百川智能推出的新一代开源大语言模型,采用2.6万亿Tokens的高质量语料训练,在多个权威的中文、英文和多语言的通用、领域benchmark上取得同尺寸最佳的效果,发布包含有7B、13B的Base和经过PPO训练的Chat版本,并提供了Chat版本的4bits量化。 一.Baichuan2模型 B 阅读全文
posted @ 2023-10-07 23:28 扫地升 阅读(955) 评论(0) 推荐(0) 编辑
摘要: ChatGLM2-6B是开源中英双语对话模型ChatGLM-6B的第2代版本,引入新的特性包括更长的上下文(基于FlashAttention技术,将基座模型的上下文长度由ChatGLM-6B的2K扩展到了32K,并在对话阶段使用8K的上下文长度训练);更高效的推理(基于Multi-QueryAtte 阅读全文
posted @ 2023-10-07 23:28 扫地升 阅读(431) 评论(0) 推荐(0) 编辑
摘要: 基于Langchain与ChatGLM等语言模型的本地知识库问答应用实现。项目中默认LLM模型改为THUDM/chatglm2-6b[2],默认Embedding模型改为moka-ai/m3e-base[3]。 一.项目介绍 1.实现原理 本项目实现原理如下图所示,过程包括加载文件->读取文本->文 阅读全文
posted @ 2023-10-07 23:27 扫地升 阅读(1956) 评论(0) 推荐(0) 编辑