轻松部署OpenWebUI+DeepSeek API,实现多端互通查询自由
引言
DeepSeek模型很强大,但官方目前存在以下几个痛点
不稳定:官方页面、官方API暂时只能提供有限的服务
成本高:满血版671B个人电脑很少能带得动的
本文介绍nas/云服务器 部署OpenWebUI+DeepSeek API,实现多端互通查询自由,主要有以下几个优点
成本低:不用昂贵的硬件资源就能享受满血版DeepSeek,且第三方服务价格已经卷到百万tokens几块钱了,另外服务商还有免费额度
体验好:可以稳定进行多轮对话
详细部署步骤如下:
- 获取第三方API密钥
本文以硅基流动SiliconFlow为例,其他第三方大模型服务平台均类似
1.1. 注册账号
打开SiliconFlow官网注册,欢迎使用邀请链接 https://cloud.siliconflow.cn/i/Ne2h1Jdb
,大家一起白嫖2000w tokens
1.2 获取密钥
首页→API密钥→新建API密钥。用于后面配置模型
1.3 获取模型名称
- 在云服务或者自有nas部署 open-webui
2.1 这里推荐使用docker 部署,执行如下命令
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
2.2 浏览器访问 http://服务器ip:3000,设置初始密码
2.3 登录OpenWebUI社区,获取函数配置
点击 https://openwebui.com/f/zgccrui/deepseek_r1/。
注册官方账号(上一步是本地账户,与此处账号不同,需另外注册)
点击Get
填写本地部署的OpenWebUI地址
2.4 修改函数配置,添加api
准备好以下三个数据
-
api地址DEEPSEEK_API_BASE_URL。SiliconFlow是https://api.siliconflow.cn/v1
-
密钥DEEPSEEK_API_KEY。见1.2获取
-
模型名称DEEPSEEK_API_MODEL。这里以DeepSeek-R1为例,其他模型可回看1.3获取
有以下两种方式添加api,任选其一即可
2.4.1 修改代码
填写这三个default,点击保存
2.4.2 外部修改
完成以上两步任意一步之后,启用函数
2.5 使用模型
到这一步其实就可以直接调用deepseek了,点击新对话,选择刚刚建的函数,然后直接对话。可以展示思考过程和结果
中间可能会出现504 timeout的现象,重试即可。数次之内可正常出结果
以上就是本次部署的全文了,感谢您的阅读~
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】凌霞软件回馈社区,博客园 & 1Panel & Halo 联合会员上线
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· DeepSeek-R1本地部署如何选择适合你的版本?看这里
· 开源的 DeepSeek-R1「GitHub 热点速览」
· 传国玉玺易主,ai.com竟然跳转到国产AI
· 揭秘 Sdcb Chats 如何解析 DeepSeek-R1 思维链
· 自己如何在本地电脑从零搭建DeepSeek!手把手教学,快来看看! (建议收藏)