Ollama+Docker本地部署deepseek-r1模型,离线也能运行,简单到只需要3步!!!

1、下载并安装ollama
2、访问ollama查询deepseek-r1模型,运行它
  • 命令:ollama run deepseek-r1:14b (电脑配置好的可以选择更大的模型,我的电脑显卡配置为:NVDIAGeForce GTX1650)
3、安装可视化界面,本文用docker compose启动open-webui,你也可以用其他的
  • docker-compose.yml文件如下,同级目录下docker compose up -d 运行即可
version: '3.8'

services:
  open-webui:
    image: open-webui:latest
    container_name: open-webui
    ports:
      - "3000:8080"
    volumes:
      - ./data:/app/backend/data
    extra_hosts:
      - "host.docker.internal:host-gateway"
    restart: always

volumes:
  open-webui:
    external: true

本文作者:xietingweia

本文链接:https://www.cnblogs.com/xietingwei/p/18750819

版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 2.5 中国大陆许可协议进行许可。

posted @   xietingweia  阅读(92)  评论(0编辑  收藏  举报
点击右上角即可分享
微信分享提示
💬
评论
📌
收藏
💗
关注
👍
推荐
🚀
回顶
收起
  1. 1 404 not found REOL
404 not found - REOL
00:00 / 00:00
An audio error has occurred.