DeepSeek部署没那么难,个人电脑上也可以运行,教程来了!
最近DeepSeek 爆火,自己尝试了下,发现几个问题。 比如:下载无法使用,访问终端页面显示系统崩溃。本地化安装新手比较困难等。
基于此,本文主要重点介绍:
-
Ollama开源工具安装部署
-
DeepSeek R1模型及参数说明
-
为什么要本地化部署?
-
ChatBox可视化工具使用。
-
同时附上了开箱即用的本地安装保姆级教程。
用一个图描述下Ollama、DeepSeek、ChatBox 三者关系
一、Ollama 简介
Ollama: 在本地运行 Mistral、Llama 3.3、DeepSeek R1 等大语言模型的开源工具
Run Llama 3.3, DeepSeek-R1, Phi-4, Mistral, Gemma 2, and other models, locally.
官网地址 https://ollama.com/
主要优势:
-
一行命令搞定大模型部署
-
完全本地运行,保护隐私
-
支持 Mac、Windows、Linux 系统,快速上手
-
响应速度快,支持GPU加速(GPU英文全称Graphic Processing Unit,中文翻译为“图形处理器”。我们通常就叫它显卡)
二、Ollama 下载、安装和部署
点击download,进入下载页,有3个版本:Mac,Linux,Windows版本。 为方便大众使用,本教程只讲述:Windows版本本地化安装和部署。
注意:电脑系统版本要求windiws10已以上
1、下载到本地
出现上面的页面别慌,扫码关注公众号 博通AI,回复 部署DeepSeek ,可以获得 Ollama下载地址及方法
2、双击运行 OllamaSetup.exe
3、点击 install,安装需要一定时间
注意:默认安装在C盘
4、验证安装是否成功
快捷键 Windows+R , 打开cmd命令窗口,输入
C:\Users\admin>ollama -v
ollama version is 0.5.7
出现版本号,即为安装成功
三、选择 DeepSeek R1模型
1、选择模型
2、参数说明
在 AI 模型(如 DeepSeek-R1)中,参数数量(例如 1.5b、7b、14b 等)是指模型中可训练的参数总数。这些参数是模型通过学习数据来调整的权重,用于捕捉数据中的模式和规律。参数数量通常用来衡量模型的规模和复杂度:
1.5b:15 亿个参数。
7b:70 亿个参数。
14b:140 亿个参数。
32b:320 亿个参数。
70b:700 亿个参数。
671b:6710 亿个参数。
...
一般来说,参数数量越多,模型的表达能力越强,能够处理更复杂的任务,但同时也会对硬件资源(如 GPU 内存、计算能力)要求更高。
4、安装详细操作
个人电脑为8核16GB,这里选择14b作为样例演示,
如果你电脑没有专用显卡,只有集成显卡就选1.5b参数,
有8G显卡,如4060或4070,可以选7b参数。
有16G 显卡,可以选14b参数
如果有3090,4090显卡,可以选32b参数
C:\Users\admin>ollama run deepseek-r1:14b
页面显示安装进度,安装需要时间,请耐心等待.....
安装成功,测试下,验证结果
四、可视化客户端ChatBox AI
ChatBox AI 是学习大模型客户端,类似一个app门户,支持多种大模型应用,支持跨平台,更直观易用。
1、下载安装
2、配置ChatBox
找到设置,弹出的页面中配置
五、最终测试
关掉网络,查看本地大模型是否生效?
可以看到,演示正常。至此,本地大模型安装部署完毕。可以使用啦!
本文来自博客园,作者:方倍工作室,转载请注明原文链接:https://www.cnblogs.com/txw1958/p/18750730
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· winform 绘制太阳,地球,月球 运作规律
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· AI 智能体引爆开源社区「GitHub 热点速览」
· 写一个简单的SQL生成工具
2014-03-05 百度天气预报接口
2014-03-05 微信支付全面开放
2013-03-05 微信公众平台消息接口开发(6)电话号码链接与网址链接