本地大模型构建系列(一):4、安装部署MaxKB(Windows 10)

前言
MaxKB是一个基于大语言模型和检索增强生成(RAG)技术的开源知识库问答系统。它旨在帮助企业高效管理知识,并提供智能问答功能。MaxKB支持直接上传文档或自动爬取在线文档,能够进行文本自动拆分和向量化,从而有效减少大模型的幻觉现象,提升用户的问答交互体验。
该系统具有以下特点:
1、模型中立性:支持对接多种大语言模型,包括本地私有模型(如Llama 3、Qwen 2等)和国内外公共模型(如通义千问、OpenAI等);
2、灵活编排:内置强大的工作流引擎和函数库,支持复杂业务场景下的AI工作过程编排;
3、无缝嵌入:可以快速嵌入到第三方业务系统,提升智能问答能力;
4、开箱即用:用户可以轻松创建知识库,支持多种文档格式的上传和处理。
MaxKB广泛应用于企业内部知识库、客户服务、学术研究和教育等场景,旨在成为企业的“最强大脑”。

1.浏览器打开链接:https://github.com/1Panel-dev/MaxKB, 基于大语言模型和 RAG 的知识库问答系统,下拉找到【快速开始】,参考代码如下:

docker run -d --name=maxkb -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data -v ~/.python-packages:/opt/maxkb/app/sandbox/python-packages cr2.fit2cloud.com/1panel/maxkb


2.保持ollama和docker是开启状态,Win+R打开cmd,粘贴代码并回车,等待完成后docker中会出现MaxKB

3.选中maxkb,点击进入

4.使用下面的默认账号密码登录,并设置新密码
# 用户名: admin
# 密码: MaxKB@123..

5.点击创建应用,输入名称并创建

6.添加模型,输入API域名:http://host.docker.internal:11434,输入修改后的密码,并点击添加


8.模型下载完成后,点击应用,点击设置,进入设置页面选择刚刚下好的模型,保存并发布

9.点击应用,再点击演示图标,进入对话页面进行对话

posted on   llmpig  阅读(1344)  评论(0编辑  收藏  举报

相关博文:
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?
点击右上角即可分享
微信分享提示