使用open webui+ollama部署本地大模型
使用open webui+ollama部署本地大模型
PS:只要是ollama支持的模型都可以,比如qwen以及最近大火的deepseek
上次使用了angthingllm + ollama部署了本地大模型,详情见:https://www.cnblogs.com/jokingremarks/p/18151827
但是还是觉得可以用兼容性更好的open webui
1.安装docker
比较懒,所以还是在Windows系统上安装docker
docker官网链接:
https://www.docker.com/products/docker-desktop/
选择自己的系统等下载完毕以后就行了
启动虚拟化(Microsoft Hyper-V)
具体操作可以见这个文章的:https://www.cnblogs.com/jokingremarks/p/18156334
直接打开安装包,一路点下去即可
重启电脑以后就可以看到有个这个界面
点击accept,然后默认进入即可
如果遇到进不去,界面一直提示docker engine stopped,解决方法见链接:https://www.cnblogs.com/jokingremarks/p/18156334
2.拉取open webui镜像
最好配置个阿里云镜像,不然说实话拉取速度感人
阿里云镜像链接:https://cr.console.aliyun.com/cn-hangzhou/instances/mirrors
复制这个链接,打开docker desktop,找到设置,找到Docker Engine,在大括号内输入
"registry-mirrors": ["复制的网址"],
然后点击Apply &restart可以配置成功
open webui的GitHub地址:https://github.com/open-webui/open-webui?tab=readme-ov-file#how-to-install-
找到readme部分
因为我们是本机安装的ollama,所以直接在 PowerShell(管理员运行) 里面执行
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
等待进度条走完即可
这个时候在docker desktop的Images中就能看到下载的open webui了
3.open webui~ 启动!
启动就快了,点击run
等待加载,在浏览器中输入http://localhost:3000/
即可进入
刚进去的时候需要注册,这个地方因为是本地的,所以不会有什么验证码之类的,正常填写就行
选择一个模型,这里你下载的ollama的模型都会在下拉框中
这个时候就可以开始问答环节了
PS:Open webui的中文设置位置
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】凌霞软件回馈社区,博客园 & 1Panel & Halo 联合会员上线
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】博客园社区专享云产品让利特惠,阿里云新客6.5折上折
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 微软正式发布.NET 10 Preview 1:开启下一代开发框架新篇章
· 没有源码,如何修改代码逻辑?
· PowerShell开发游戏 · 打蜜蜂
· 在鹅厂做java开发是什么体验
· WPF到Web的无缝过渡:英雄联盟客户端的OpenSilver迁移实战