手把手教你本地部署Deepseek,开启AI自由探索之旅
一、本地部署前的准备工作
1. 硬件要求
Deepseek 的不同版本对硬件要求不同,以下为推荐配置:
模型版本 | CPU | GPU | 内存 | 存储 |
---|---|---|---|---|
DeepSeek-R1-1.5B | 4 核以上,Intel/AMD 多核处理器 | 可选 4GB+ 显存(如 GTX 1650) | 8GB+ | 3GB+ |
DeepSeek-R1-7B/8B | 8 核以上,现代多核 CPU | 8GB+ 显存(如 RTX 3070/4060) | 16GB+ | 8GB+ |
DeepSeek-R1-14B | 12 核以上 | 16GB+ 显存(如 RTX 4090) | 32GB+ | 15GB+ |
DeepSeek-R1-32B | 16 核以上(如 Ryzen 9 / i9) | 24GB+ 显存(如 A100 40GB) | 64GB+ | 30GB+ |
DeepSeek-R1-70B | 32 核以上(服务器级 CPU) | 多卡并行(如 2x A100 80GB) | 128GB+ | 70GB+ |
2. 软件环境
-
操作系统:推荐 Windows、Linux(Ubuntu、CentOS)以获得最佳兼容性。
-
必备工具:
- 安装 Ollama(用于管理和运行 Deepseek):Ollama 官网
二、本地部署步骤
1. 安装 Ollama
-
Windows:下载 .msi 安装包,按照向导完成安装。
-
macOS:下载 .dmg 安装包,将 Ollama 拖入 “Applications” 目录。
-
Linux:使用终端执行
curl -sSL https://ollama.ai/install.sh | sh
。 -
验证安装:运行
ollama --version
确认 Ollama 安装成功。
2. 下载并运行 Deepseek 模型
-
选择合适的模型版本,例如
ollama run deepseek-r1:7b
。
-
配置参数,如温度(控制生成随机性)、最大生成长度、Top-p 采样等。
-
启动模型并开始交互。
3. 安装可视化界面(可选)
Chatbox AI 提供直观的 GUI,便于用户与模型交互。
-
下载安装:Chatbox AI 官网
-
连接本地模型:在 “设置” 中选择 “Ollama API”,即可开始使用。
通过本地部署 Deepseek,用户不仅能够享受更高的安全性、稳定性和定制化能力,还能最大化发挥 AI 模型的潜力,助力各行业迈向智能化未来。
http://blog.xueyao.tech
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· .NET10 - 预览版1新功能体验(一)