轻松部署OpenWebUI+DeepSeek API,实现多端互通查询自由

引言

DeepSeek模型很强大,但官方目前存在以下几个痛点

不稳定:官方页面、官方API暂时只能提供有限的服务
成本高:满血版671B个人电脑很少能带得动的
本文介绍nas/云服务器 部署OpenWebUI+DeepSeek API,实现多端互通查询自由,主要有以下几个优点

成本低:不用昂贵的硬件资源就能享受满血版DeepSeek,且第三方服务价格已经卷到百万tokens几块钱了,另外服务商还有免费额度
体验好:可以稳定进行多轮对话

详细部署步骤如下:

  1. 获取第三方API密钥
    本文以硅基流动SiliconFlow为例,其他第三方大模型服务平台均类似
    1.1. 注册账号
    打开SiliconFlow官网注册,欢迎使用邀请链接 https://cloud.siliconflow.cn/i/Ne2h1Jdb
    ,大家一起白嫖2000w tokens
    image
    1.2 获取密钥
    首页→API密钥→新建API密钥。用于后面配置模型
    image
    image
    1.3 获取模型名称
    image
  2. 在云服务或者自有nas部署 open-webui
    2.1 这里推荐使用docker 部署,执行如下命令
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

2.2 浏览器访问 http://服务器ip:3000,设置初始密码
2.3 登录OpenWebUI社区,获取函数配置
点击 https://openwebui.com/f/zgccrui/deepseek_r1/。
注册官方账号(上一步是本地账户,与此处账号不同,需另外注册)
点击Get
image
填写本地部署的OpenWebUI地址
image
2.4 修改函数配置,添加api
准备好以下三个数据

  1. api地址DEEPSEEK_API_BASE_URL。SiliconFlow是https://api.siliconflow.cn/v1

  2. 密钥DEEPSEEK_API_KEY。见1.2获取

  3. 模型名称DEEPSEEK_API_MODEL。这里以DeepSeek-R1为例,其他模型可回看1.3获取

有以下两种方式添加api,任选其一即可
2.4.1 修改代码
填写这三个default,点击保存
image
2.4.2 外部修改
image
image
完成以上两步任意一步之后,启用函数
image
2.5 使用模型
到这一步其实就可以直接调用deepseek了,点击新对话,选择刚刚建的函数,然后直接对话。可以展示思考过程和结果

中间可能会出现504 timeout的现象,重试即可。数次之内可正常出结果

image
以上就是本次部署的全文了,感谢您的阅读~

posted @   陈其苗  阅读(1020)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· DeepSeek-R1本地部署如何选择适合你的版本?看这里
· 开源的 DeepSeek-R1「GitHub 热点速览」
· 传国玉玺易主,ai.com竟然跳转到国产AI
· 揭秘 Sdcb Chats 如何解析 DeepSeek-R1 思维链
· 自己如何在本地电脑从零搭建DeepSeek!手把手教学,快来看看! (建议收藏)
点击右上角即可分享
微信分享提示