DeepSeek 本地化部署

DeepSeek-R1本地化部署

在 Mac 上使用 Ollama 运行 DeepSeek-R1,并通过 Open-WebUI 提供 Web 端访问。

1. 安装 Ollama

Ollama官方:https://ollama.com/
Ollama 是一个轻量级的 AI 推理框架,支持本地运行 LLM(大型语言模型)。首先,下载并安装 Ollama。

# brew安装ollama
brew install --cask ollama
# 检查Ollama是否安装成功,成功会显示版本号,如:ollama version is 0.5.7
ollama --version

img

2. 下载模型

下载 DeepSeek-R1 模型
模型下载地址:https://ollama.ai/library/deepseek-r1

# 该命令会自动下载 DeepSeek-R1 1.5B 版本的模型,并存储在本地。
ollama pull deepseek-r1:1.5b

img

3. 本地运行 DeepSeek-R1

执行后,终端会进入交互模式,可以直接输入文本与模型进行对话。

# 查看已下载的模型
ollama list
# 运行模型
ollama run deepseek-r1:1.5b

img

通过 Open-WebUI 运行

使用 Web 界面交互模型,可以安装 Open-WebUI。该工具提供了一个用户友好的 Web 前端,使得 DeepSeek-R1 更加易用。

克隆 Open-WebUI 仓库

git clone git@github.com:open-webui/open-webui.git

启动 Open-WebUI 容器

#mac安装docker,安装完成后应用程序中会有docker程序,点击即可启动
brew install --cask --appdir=/Applications docker
#启动docker
docker run -d \
  -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

#停止容器·
docker stop open-webui
#删除容器
docker rm open-webui
#删除存储数据
docker volume rm open-webui

• -p 3000:8080:将容器的 8080 端口映射到本机 3000 端口;
• --add-host=host.docker.internal:host-gateway:允许容器访问宿主机网络;
• -v open-webui:/app/backend/data:挂载数据存储目录,保存容器的状态和数据。
• --restart always:确保容器在重启后自动运行;
• ghcr.io/open-webui/open-webui:main:拉取 Open-WebUI 的最新版本镜像。

运行容器后,访问 http://localhost:3000 即可访问 Open-WebUI。

posted @   jeikerxiao  阅读(275)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 实操Deepseek接入个人知识库
· CSnakes vs Python.NET:高效嵌入与灵活互通的跨语言方案对比
· 【.NET】调用本地 Deepseek 模型
· Plotly.NET 一个为 .NET 打造的强大开源交互式图表库
· 上周热点回顾(2.17-2.23)
点击右上角即可分享
微信分享提示