1 视频教程

2 ollama下载安装配置

2.1 官网

2.2 下载

 

2.3 安装

  默认安装即可

 

2.4 环境变量

  添加两个环境变量

  1)OLLAMA_HOST      0.0.0.0:11434

  2)OLLAMA_MODELS  ollama安装路径

  

 

3 通过ollama本地部署deepseek

  1)还是再ollama官网,点击models

  

   

  2)选择deepseek r1

 

   3)选择版本

   可以先选择一个最小的1.5b的

 

   4)复制上图箭头执行的命令,命令行(win+r打开)执行

   出现 (Send a message)表示成功

  

  到这里,deepseek本地化部署完成

 

4 rag flow

4.1 下载

  下载后解压放在你想要的文件夹下

 

  

 

4.2 修改配置

  进入ragflow-main下面的docker文件夹,找到.env文件

  

   编辑文件,注释掉黄色的那行,打开蓝色的那行,保存

  

 

5 docker

5.1 下载安装

  下载对应系统的版本,默认安装即可

  

   命令行执行命令docker,出现下面表示成功

  

 

5.2 添加国内镜像

  1)运行docker,点击设置

  

  

  2)选择Docker Engine,添加配置项registry-mirrors

  里面的url可以自己到阿里云镜像加速器去拿到自己的,也可以使用其它的国内镜像,网上去查即可

 

6 使用docker安装rag flow及所需依赖

  1)在ragflow-main文件下打开命令行

  

 

  2) 执行命令

  会下载安装ragflow和所需依赖,需要较长时间,如果下载失败,可以尝试换其它镜像,还是不行可以用科技。

docker compose -f docker/docker-compose.yml up -d

  

   

  3)在浏览器输入localhost

  访问到下图页面,表示成功

  

 

7 使用ragflow构建知识库

7.1 配置ai模型

  1)点击头像,再点击 模型供应商

 

   2)找到ollama,点击添加模型

  

   3)填写信息  

    (1)模型类型选chat

    (2)模型名称

      在命令窗口执行ollama list,会展示安装的模型,复制你要使用的模型名称

  

     (3)基础url,把ip改成你的本地ip

     (4)最大token数,随便填大一点

  

   

  4)系统模型设置

    (1)聊天模型:选择我们刚才添加的模型

    (2)嵌入模型:选择下图的即可

  

 

7.2 创建知识库

  1)点击知识库,再点击右侧的创建知识库  

  

   

  2)输入名称,点击确定

  

   那么,知识库就创建成功了

 

   3)点击进去,上传文件并解析

    注意,必须上传至少一个文件解析,这个知识库才可用

  

 

7.3 创建聊天助理开始聊天

  1)点击聊天,再点击新建助理

  

 

   2)输入名称,选择知识库

  

   确认,左侧出现我们添加的助理

  

   3)开始聊天

  点击这个助理,点击+新建聊天