小白也能轻松上手!DeepSeek本地搭建部署图文详解
近期,国产大模型 DeepSeek 凭借其卓越的性能和广泛的应用场景,迅速成为 AI 领域的热门话题。然而随着用户数量的快速增长,在线服务时常面临访问压力,导致响应延迟甚至服务中断,严重影响用户体验。
幸运的是,DeepSeek 作为一款开源模型,为用户提供了本地部署的解决方案。通过将 DeepSeek 部署到本地终端,用户不仅可以摆脱网络依赖,还能随时随地享受流畅的 AI 体验。本地部署后,DeepSeek 无需联网即可直接运行,彻底解决了在线服务的延迟和宕机问题,同时在数据安全方面更具优势,尤其适合对隐私和安全性有较高要求的用户。
DeepSeek 本地部署的优势
稳定高效:本地部署不受网络波动和服务器压力影响,确保模型始终高效运行。
隐私安全:数据完全存储在本地,避免敏感信息外泄,保障用户隐私。
灵活便捷:支持离线使用,随时随地调用模型,满足多样化需求。
开源自由:DeepSeek 的开源特性让用户可以根据需求自定义优化,打造专属 AI 工具。
接下来,我将为大家分享一份详细的 DeepSeek 本地搭建部署图文教程,帮助大家轻松上手,快速搭建属于自己的本地 AI 环境。
一、安装Ollama
如果想在本地运行 DeepSeek,可以借助开源工具 Ollama。Ollama 是一个用于本地运行大语言模型的开源工具,支持多种模型,包括 DeepSeek-R1 等。
你可以访问 Ollama 官网 下载 Ollama。官网提供了适用于 macOS、Linux 和 Windows 三个操作系统的安装包。根据你的电脑系统,选择对应的版本进行下载。例如,我选择的是 Windows 版本。
下载后双击安装即可,大概几分钟的时间还是挺快的。
安装完成后验证一下安装成功,在Windows系统中按下Win+R键,输入cmd,然后按回车键;在Mac系统中打开Terminal应用程序。在终端中输入ollama help并按回车键,若没有报错,则表示安装成功。
二、下载部署 Deepseek 模型
重新回到 https://ollama.com/ 网址中,在网页上方搜索框中输入 Deepseek-r1,这个 Deepseek-r1 就是我们需要本地部署的一个模型。
点击 Deepseek-r1 后进入详情界面,里面有多个参数规模可供选择,从 1.5b 到 671b 都有。
需要注意的是,选择模型大小应根据电脑的硬件配置来决定。以下是一个模型大小配置参考表格,大家可根据自己的电脑配置进行选择。一般来说,部署的本地模型越大,DeepSeek 的效果会越好。
DeepSeek模型大小配置参考表格
硬件配置 推荐模型大小 说明
低配电脑 1.5B 适合配置较低的电脑,如4GB内存、集成显卡等。运行流畅,适合日常简单对话和任务。
中配电脑 7B 适合配置中等的电脑,如8GB内存、独立显卡(如NVIDIA GTX 1060及以上)。能够处理更复杂的任务,对话效果更自然。
高配电脑 32B 适合配置较高的电脑,如16GB及以上内存、高性能显卡(如NVIDIA RTX 3060及以上)。适合需要高精度对话和复杂任务处理的用户。
顶级配置电脑 70B 适合配置极高的电脑,如32GB及以上内存、顶级显卡(如NVIDIA RTX 4090及以上)。能够提供最强大的性能和最自然的对话效果,适合专业用途。
选择好模型规模后,点击复制右边的一个命令。
下载安装完成后,我们就直接可以在命令提示符面板中使用它了。
以后如果要再次使用直接打开这个在线命令就可以了
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】凌霞软件回馈社区,博客园 & 1Panel & Halo 联合会员上线
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】博客园社区专享云产品让利特惠,阿里云新客6.5折上折
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· DeepSeek “源神”启动!「GitHub 热点速览」
· 微软正式发布.NET 10 Preview 1:开启下一代开发框架新篇章
· 我与微信审核的“相爱相杀”看个人小程序副业
· C# 集成 DeepSeek 模型实现 AI 私有化(本地部署与 API 调用教程)
· spring官宣接入deepseek,真的太香了~