deepseek本地部署
deepseek本地部署
下载并部署大模型(这里使用Ollama)
- 下载并安装Ollama
- 打开浏览器搜索ollama,访问官网。
- 点击右上角Download按钮,选择对应系统版本的安装包下载。
- 双击安装包,按提示完成安装。
- 验证安装:在终端输入
ollama -v
,出现版本号即表示安装成功。
- ollama的命令
- 启动 Ollama 服务:
ollama serve
(默认端口 11434 )。 - 下载模型:
ollama pull <模型名>
,比如想下载 Deepseek,就输入ollama pull Deepseek
。 - 运行模型:
ollama run <模型名>
,如果模型未下载,运行这个命令后会先下载该模型,下载完成之后进入对话模式。 - 列出所有已下载模型:
ollama list
- 查看模型信息:
ollama show <模型名>
- 删除模型:
ollama rm <模型名>
- 查看所有命令:
ollama help
- 启动 Ollama 服务:
关于模型的启动,在模型下载好之后,需要运行模型的时候,其实只需要执行一下ollama这个软件保证服务启动就行了(看任务栏右下角),不太会执行ollama run xxx
或者ollama serve
(当然这个软件默认开机自启动,如果不需要的话可以关掉)。
-
指定模型下载位置
- 默认下载到C盘,这里通过创建环境变量的方式指定模型的下载位置。
- 创建环境变量
OLLAMA_MODELS
,值设为E:\OLLAMA_MODELS
(可根据需要更改路径)。OLLAMA_MODELS E:\OLLAMA_MODELS
-
下载并启动DeepSeek模型
方式1:去ollama官网找需要的模型,然后复制安装命令安装
- 访问ollama官网models页面,找到deepseek-r1模型。
- 根据硬件配置选择合适的模型大小。
- 复制对应的安装命令并在终端执行。
方式2:直接修改命令后面的参数大小就行
- 在终端输入
ollama run deepseek-r1
下载并启动模型- 默认下载7B参数规格,如需其他参数规格
- 可在命令后添加
:参数量
,如ollama run deepseek-r1:1.5b
。
- 开启AI聊天
- 终端出现
>>>
符号即可开始对话。
- 终端出现
可视化客户端
Cherry Studio 桌面客户端:免费开源项目,功能丰富,支持多模型。
点击设置,厂商选择ollama,添加下载好的模型
切换模型
选择自己下载好的大模型之后就可以与大模型对话了。
与VSCode集成实现AI代码辅助开发
- vscode下载 cline插件
- 然后点击对话框右上角的小齿轮设置deepseek的api参数
- 然后就可以实现ai代码辅助开发
本文作者:jiyuchen1
本文链接:https://www.cnblogs.com/jiyuchen1/p/18700313
版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 2.5 中国大陆许可协议进行许可。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 分享4款.NET开源、免费、实用的商城系统
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
· 上周热点回顾(2.24-3.2)