手把手教你本地部署Deepseek,开启AI自由探索之旅

tmpc9n2jqbd.png

一、本地部署前的准备工作

1. 硬件要求

Deepseek 的不同版本对硬件要求不同,以下为推荐配置:

模型版本CPUGPU内存存储
DeepSeek-R1-1.5B4 核以上,Intel/AMD 多核处理器可选 4GB+ 显存(如 GTX 1650)8GB+3GB+
DeepSeek-R1-7B/8B8 核以上,现代多核 CPU8GB+ 显存(如 RTX 3070/4060)16GB+8GB+
DeepSeek-R1-14B12 核以上16GB+ 显存(如 RTX 4090)32GB+15GB+
DeepSeek-R1-32B16 核以上(如 Ryzen 9 / i9)24GB+ 显存(如 A100 40GB)64GB+30GB+
DeepSeek-R1-70B32 核以上(服务器级 CPU)多卡并行(如 2x A100 80GB)128GB+70GB+

2. 软件环境

  • 操作系统:推荐 Windows、Linux(Ubuntu、CentOS)以获得最佳兼容性。

  • 必备工具

    • 安装 Ollama(用于管理和运行 Deepseek):Ollama 官网

二、本地部署步骤

1. 安装 Ollama

  • Windows:下载 .msi 安装包,按照向导完成安装。

  • macOS:下载 .dmg 安装包,将 Ollama 拖入 “Applications” 目录。

  • Linux:使用终端执行 curl -sSL https://ollama.ai/install.sh | sh​​。

  • 验证安装:运行 ollama --version​​ 确认 Ollama 安装成功。

    tmplqc_

2. 下载并运行 Deepseek 模型

tmp9kp5wfdk.png

  1. 选择合适的模型版本,例如 ollama run deepseek-r1:7b​​。

    tmpnlv6vds3.png

  2. 配置参数,如温度(控制生成随机性)、最大生成长度、Top-p 采样等。

  3. 启动模型并开始交互。

    tmp_

3. 安装可视化界面(可选)

Chatbox AI 提供直观的 GUI,便于用户与模型交互。

tmpke8q8fls.png

  • 下载安装Chatbox AI 官网

    tmplo0n1qed.png

  • 连接本地模型:在 “设置” 中选择 “Ollama API”,即可开始使用。

    tmpa8wkfv7h.png


    tmpg3jjcsli.png


通过本地部署 Deepseek,用户不仅能够享受更高的安全性、稳定性和定制化能力,还能最大化发挥 AI 模型的潜力,助力各行业迈向智能化未来。

posted @   薛尧笔记  阅读(76)  评论(0编辑  收藏  举报  
相关博文:
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· .NET10 - 预览版1新功能体验(一)
薛尧的博客
点击右上角即可分享
微信分享提示