Ollama+Docker本地部署deepseek-r1模型,离线也能运行,简单到只需要3步!!!
1、下载并安装ollama
- 网址:Ollama
2、访问ollama查询deepseek-r1模型,运行它
- 命令:ollama run deepseek-r1:14b (电脑配置好的可以选择更大的模型,我的电脑显卡配置为:NVDIAGeForce GTX1650)
3、安装可视化界面,本文用docker compose启动open-webui,你也可以用其他的
- docker-compose.yml文件如下,同级目录下
docker compose up -d
运行即可
version: '3.8'
services:
open-webui:
image: open-webui:latest
container_name: open-webui
ports:
- "3000:8080"
volumes:
- ./data:/app/backend/data
extra_hosts:
- "host.docker.internal:host-gateway"
restart: always
volumes:
open-webui:
external: true
本文作者:xietingweia
本文链接:https://www.cnblogs.com/xietingwei/p/18750819
版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 2.5 中国大陆许可协议进行许可。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步