摘要: 本文将讲述如何在本地部署大模型服务,并使用Embeeding、向量数据库和LangChain构建本地知识库 本地部署LLM 通常使用LangChain会去调用OpenAI的服务,但是我们在使用OpenAI服务时,但经常会遇到很多阻力,比如付费、网络不稳定等。因此我们可以在下载一个较小的大模型到本地, 阅读全文
posted @ 2024-01-21 22:09 N3ptune 阅读(3066) 评论(0) 推荐(2) 编辑