本地化部署deepseek For_Mac
最近deepseek非常火爆,蒸馏算法的落地,实现了小资源跑大模型,也极大的降低了本地化运行的门槛,为打工人带来了福音;
本地化运行可以解决脱网、隐私、审计等重要问题,适合闲暇聊个天、练练英语、完成打工任务 等
step1
下载并安装Ollama
Ollama是一个开源的 LLM(大型语言模型)服务工具(就是大模型运行工具)
选择适合自己的系统即可
【 这一步可能需外网 我试试附件能不能挂发哦这个博客里】ps结果: 太大了 挂不进去
step2
下载并运行deepseek模型
根据自己的内存预估来选择模型
推荐 ollama run deepseek-r1:14b
直接命令行运行
即可
等下载 耗时比较长
step1
安装个交互接口
https://chatboxai.app/zh
https://chatboxai.app/zh#download
(其他的也可以的)
使用本地的模型 它只是交互接口。不收费
点击设置 引入本地新模型配置 (deepseek)
实际使用界面 和资源消耗情况
Don't Repeat Yourself !
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】凌霞软件回馈社区,博客园 & 1Panel & Halo 联合会员上线
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】博客园社区专享云产品让利特惠,阿里云新客6.5折上折
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 本地部署 DeepSeek:小白也能轻松搞定!
· 如何给本地部署的DeepSeek投喂数据,让他更懂你
· 从 Windows Forms 到微服务的经验教训
· 李飞飞的50美金比肩DeepSeek把CEO忽悠瘸了,倒霉的却是程序员
· 超详细,DeepSeek 接入PyCharm实现AI编程!(支持本地部署DeepSeek及官方Dee