Ollama+DeepSeek+AnythingLLM部署本地知识库,离线使用!

一、本地部署,我们可以通过Ollama来进行安装

Ollama 官方版:【点击前往

1.根据自己的系统选择linux或者windows、mac的安装包,因为我的系统是ubuntu,所以下载linux版本的

2.解压并安装ollama。

(1)解压:tar xzvf /home/ubuntu/ollama-linux-amd64.tgz -C /usr/local/            #解压到/usr/local/  目录下

(2)cd /usr/local/bin &&OLLAMA_HOST=0.0.0.0 ollama serve &                      #启动ollama服务,OLLAMA_HOST=0.0.0.0表示服务监听0.0.0.0IP,因为默认 ollama serve  监听的是127.0.0.1,在远端电脑上无法使用Anything LLM连接。

3.安装deepseek-r1

根据自己的显卡,参照下图,下载对应版本的模型

   因为我本地是24GB显存的显卡,所以我安装ollama run deepseek-r1:14b

 使用魔法下载更快哦,如果没有魔法,下载速度在100kb左右,有魔法将近10MB

ollama run deepseek-r1:14b

 

 4.启动 deepseek

下载完成后可以通过ollama list 查看,并通过ollama run deepseek-r1:14b 启动

复制代码
root@AI-server:~# ollama list
NAME                       ID              SIZE      MODIFIED
deepseek-r1:7b             0a8c26691023    4.7 GB    49 minutes ago
nomic-embed-text:latest    0a109f422b47    274 MB    49 minutes ago
deepseek-r1:1.5b           a42b25d8c10a    1.1 GB    55 minutes ago
root@AI-server:~#
root@AI-server:~# ollama run deepseek-r1:7b
>>>
>>>
root@AI-server:~# ollama ps
NAME              ID              SIZE      PROCESSOR    UNTIL
deepseek-r1:7b    0a8c26691023    6.0 GB    100% GPU     4 minutes from now
复制代码

 

如上,通过ollama ps 查看已启动

根据自己的显卡显存大小选择:

5b:4GB显存

7b、8b:12GB显存

14b:12GB-24GB显存

32b:24GB以上显存

复制代码
 ollama run deepseek-r1:1.5b

  ollama run deepseek-r1:7b

  ollama run deepseek-r1:8b

  ollama run deepseek-r1:14b

  ollama run deepseek-r1:32b

  ollama run deepseek-r1:70b

复制代码

二. AnythingLLM 下载

1.下载并安装

(1)Github 开源版 【点击下载

(2)官方版:【点击下载

进入官网,下载windows版本,直接点击安装即可。

2.连接deepseek模型

(1)如下图,点击左下角的 open settings

(2)选择LLM

Ollama Base URL:是ollama部署的服务器地址,这就是上面为什么要监听0.0.0.0的原因,不然这一步无法连接。

(3)新建聊天工作区

(4)随便命名

(5)选择聊天的LLM为ollama,然后拉到最下面,保存

(6)上传本地文件作为deepseek学习的知识库,如下图

 (7)开始提问

 

posted @   粉色纽扣  阅读(2480)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)
点击右上角即可分享
微信分享提示