RagFlow本地部署使用
文章目录
前言
一、RAGFlow的安装和部署
1.安装
2.注册登录
二、添加模型
1.配置 Ollama 连接大模型
2.配置Xinference连接大模型
三、知识库使用
1.创建知识库
2.上传文件解析
四、聊天
前言
开源RAGFlow引擎:打造无幻觉、高精度的文档理解与生成体验
RAGflow,这个新兴的开源RAG(Retrieval-Augmented Generation)引擎,正以其独特的深度文档理解能力,为大型语言模型的应用带来了革命性的变革。在处理PDF文件时,我们经常面临提取干净数据的挑战,而RAGFlow的出现,恰恰解决了这一问题,它能够提供准确无误且无幻觉的生成结果。
github地址:https://github.com/infiniflow/ragflow
官网文档:https://infiniflow.cn/docs/dev/
一、RAGFlow的安装和部署
前置条件
CPU >= 4 核
内存 >= 16 GB
硬盘 >= 50 GB
Docker版本 >= 24.0.0 & Docker Compose >= v2.26.1
1.安装
克隆仓库
git clone https://github.com/infiniflow/ragflow.git
1
运行以下命令会自动下载开发版本的RAGFlow Docker映像。要下载并运行指定的Docker版本,请在运行以下命令之前,将docker/.env中的RAGFLOW_VERSION更新到预期版本,例如RAGFLOW_VERSION=v0.7.0。
构建预建的Docker映像并启动服务器
cd ragflow/docker
chmod +x ./entrypoint.sh
docker compose up -d
1
2
3
如果你本地安装了redis或minio可能出现端口占用问题,修改.env中的配置信息即可
核心映像的大小约为9 GB,可能需要一段时间才能加载。
服务器启动成功后再次确认服务器状态:
docker logs -f ragflow-server
1
以下输出证实了系统的成功启动:
____ ______ __
/ __ \ ____ _ ____ _ / ____// /____ _ __
/ /_/ // __ `// __ `// /_ / // __ \| | /| / /
/ _, _// /_/ // /_/ // __/ / // /_/ /| |/ |/ /
/_/ |_| \__,_/ \__, //_/ /_/ \____/ |__/|__/
/____/
* Running on all addresses (0.0.0.0)
* Running on http://127.0.0.1:9380
* Running on http://x.x.x.x:9380
INFO:werkzeug:Press CTRL+C to quit
1
2
3
4
5
6
7
8
9
10
11
这里注意,安装完成后并不是要进入 下面两个地址
http://127.0.0.1:9380
http://172.18.0.6:9380
而是要进入:http://localhost:80 先注册账号,是下面这个页面
2.注册登录
在上图的界面中注册,然后登录就来到下面这个页面了
二、添加模型
1.配置 Ollama 连接大模型
如下图我们先配置模型,点击右上角头像,再点击模型提供商
点击Ollama添加模型,填写模型信息。
如果ollama是在本机的话docker访问宿主机url为:http://host.docker.internal:11434
2.配置Xinference连接大模型
点击Xinference配置模型,填写模型信息
三、知识库使用
1.创建知识库
点击创建知识库,输入知识库名称。
2.上传文件解析
在数据集中,点击新增文件,选择文件后选择上传。
点击开始按钮进行解析
在解析方法中可以配置分段标识符、解析方法等信息。
四、聊天
在聊天模块中点击新建助理,填写信息,选择知识库。在模型设置中配置模型信息。
输入想根据知识库提问的问题。效果如下:
聊天API
————————————————
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
原文链接:https://blog.csdn.net/qq_43548590/article/details/143323919
posted on 2025-02-27 17:03 ExplorerMan 阅读(588) 评论(0) 编辑 收藏 举报
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 单线程的Redis速度为什么快?
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 展开说说关于C#中ORM框架的用法!
· SQL Server 2025 AI相关能力初探
· Pantheons:用 TypeScript 打造主流大模型对话的一站式集成库
2019-02-27 Memcached 真的过时了吗?
2016-02-27 五年北京,这个改变我命运的城市,终于要离开了(转)
2014-02-27 N年之后,只记得三井寿!而我们程序猿们也要加油珍惜时间!