DeepSeek部署没那么难,个人电脑上也可以运行,教程来了!

最近DeepSeek 爆火,自己尝试了下,发现几个问题。 比如:下载无法使用,访问终端页面显示系统崩溃。本地化安装新手比较困难等。

基于此,本文主要重点介绍:

  1. Ollama开源工具安装部署

  2. DeepSeek R1模型及参数说明

  3. 为什么要本地化部署?

  4. ChatBox可视化工具使用。

  5. 同时附上了开箱即用的本地安装保姆级教程。

用一个图描述下Ollama、DeepSeek、ChatBox 三者关系

图片

一、Ollama 简介

Ollama: 在本地运行 Mistral、Llama 3.3、DeepSeek R1 等大语言模型的开源工具

Run Llama 3.3, DeepSeek-R1, Phi-4, Mistral, Gemma 2, and other models, locally.

官网地址  https://ollama.com/

主要优势:

  • 一行命令搞定大模型部署

  • 完全本地运行,保护隐私

  • 支持 Mac、Windows、Linux 系统,快速上手

  • 响应速度快,支持GPU加速(GPU英文全称Graphic Processing Unit,中文翻译为“图形处理器”。我们通常就叫它显卡)

二、Ollama 下载、安装和部署

点击download,进入下载页,有3个版本:Mac,Linux,Windows版本。 为方便大众使用,本教程只讲述:Windows版本本地化安装和部署。

图片

注意:电脑系统版本要求windiws10已以上

1、下载到本地

图片

出现上面的页面别慌,扫码关注公众号 博通AI,回复 部署DeepSeek ,可以获得 Ollama下载地址及方法
image

2、双击运行 OllamaSetup.exe

图片

3、点击 install,安装需要一定时间图片

注意:默认安装在C盘

4、验证安装是否成功

快捷键 Windows+R , 打开cmd命令窗口,输入

C:\Users\admin>ollama -v
ollama version is 0.5.7

出现版本号,即为安装成功

图片

三、选择 DeepSeek R1模型

1、选择模型

图片

2、参数说明

在 AI 模型(如 DeepSeek-R1)中,参数数量(例如 1.5b、7b、14b 等)是指模型中可训练的参数总数。这些参数是模型通过学习数据来调整的权重,用于捕捉数据中的模式和规律。参数数量通常用来衡量模型的规模和复杂度:

1.5b:15 亿个参数。

7b:70 亿个参数。

14b:140 亿个参数。

32b:320 亿个参数。

70b:700 亿个参数。

671b:6710 亿个参数。

...

一般来说,参数数量越多,模型的表达能力越强,能够处理更复杂的任务,但同时也会对硬件资源(如 GPU 内存、计算能力)要求更高。

4、安装详细操作

个人电脑为8核16GB,这里选择14b作为样例演示,

如果你电脑没有专用显卡,只有集成显卡就选1.5b参数,
有8G显卡,如4060或4070,可以选7b参数。
有16G 显卡,可以选14b参数
如果有3090,4090显卡,可以选32b参数

C:\Users\admin>ollama run deepseek-r1:14b

页面显示安装进度,安装需要时间,请耐心等待.....

图片

安装成功,测试下,验证结果

图片

四、可视化客户端ChatBox AI

ChatBox AI 是学习大模型客户端,类似一个app门户,支持多种大模型应用,支持跨平台,更直观易用。

官网地址:https://chatboxai.app/zh

1、下载安装

图片

2、配置ChatBox

找到设置,弹出的页面中配置

图片

五、最终测试

关掉网络,查看本地大模型是否生效?

图片

可以看到,演示正常。至此,本地大模型安装部署完毕。可以使用啦!

posted @   方倍工作室  阅读(86)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· winform 绘制太阳,地球,月球 运作规律
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· AI 智能体引爆开源社区「GitHub 热点速览」
· 写一个简单的SQL生成工具
历史上的今天:
2014-03-05 百度天气预报接口
2014-03-05 微信支付全面开放
2013-03-05 微信公众平台消息接口开发(6)电话号码链接与网址链接
点击右上角即可分享
微信分享提示