DeepSeek部署方法
一、基于Ollama的部署方案(推荐)
特点:开源工具,适配主流系统,命令行操作简单
适用场景:Windows/macOS/Linux系统,支持离线使用
步骤:(以window为例子)
- 安装Ollama
访问官网 ollama.com 下载对应系统的安装包
双击安装(建议默认路径,避免环境变量问题) - 下载模型
打开命令提示符(开始菜单输入cmd然后以管理员身份运行)
输入命令 ollama run deepseek-r1:1.5b回车(1.5B参数版,普通电脑首选)
显存建议:
▪ 1.5B:≥4GB内存
▪ 7B:≥16GB内存+独立显卡(如RTX 3060)
1.5b占用磁盘1.1GB,模型越大占用的磁盘空间就越多
下载中。。。 - 启动与使用
模型下载完成后,
出现提示,输入问题即可对话
(例:输入“你是谁”测试)
退出时输入 /bye
二、基于chatbox的图形化方案(需要先安装Ollama)
特点:无需命令行,界面操作友好
适用场景:Windows/macOS系统,偏好可视化工具
步骤:
- 下载软件
访问 Chatbox AI官网下载安装包 - 配置模型连接
打开Chatbox → 点击左下角 设置 → 模型供应商 选择 Ollama
API地址 填写 http://localhost:11434(Ollama默认端口)
模型名称 选择已下载的 deepseek-r1:1.5b(与Ollama安装的模型一致) - 启动对话
返回主界面 → 点击 新建对话 → 输入问题即可与本地模型交互
注意事项
- 硬件要求:
◦ 最低配置:4GB内存+集成显卡(1.5B模型)
◦ 推荐配置:16GB内存+NVIDIA显卡(运行7B及以上模型) - 常见问题:
◦ 下载慢:使用镜像站点或加速器
◦ 启动失败:检查Ollama是否后台运行(任务栏显示羊驼图标)
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· .NET10 - 预览版1新功能体验(一)