在Windows系统中安装Open WebUI并连接Ollama
一、Open WebUI简介与安装前准备
Open WebUI是一个开源的大语言模型(LLM)交互界面,支持本地部署与离线运行。通过它,用户可以在类似ChatGPT的网页界面中,直接操作本地运行的Ollama等大语言模型工具。
安装前的核心要求:
-
Python 3.11(必须严格使用此版本,更高版本可能不兼容)
-
Node.js 20.x及以上(用于前端依赖管理)
-
Ollama已安装并运行(若未安装,参考《Windows系统安装Ollama超简教程》)
二、详细安装步骤
步骤1:安装Python 3.11
1. 访问 Python官网,下载Python 3.11.9
安装包。
2.安装时务必勾选“Add Python 3.11 to PATH”,避免后续命令无法识别。
3. 验证安装,输入python --version看到版本信息即表示安装成功:
python --version
步骤2:安装Node.js与npm
1. 从Node.js中文网(https://nodejs.org/zh-cn)下载最新LTS版本(如20.12.2)。
2.安装完成后验证:
node -v && npm -v
步骤3:安装Open WebUI
打开cmd窗口,输入:
pip install open-webui
等待一段时间就会自动安装完成,切记不要用python3.11以上的版本,否则可能出现不兼容的问题:
见到下图所示界面,就表示安装成功:
三、运行Open WebUI并连接Ollama
启动Open WebUI
open-webui serve
打开另一个cmd窗口输入open-webui serve 启动open-webui之后,在浏览器输入默认访问地址:http://localhost:8080
。
若需自定义数据存储路径:
打开http://localhost:8080后,可以看到如下界面:
点击开始使用进入注册账号页面,输入账号密码注册即可:
进入网站后,在右上角选择本地的大模型,我们本地安装的是deepseek-r1.5,选择之后就可以进行对话了:
四、常见问题与优化
- 中文界面设置:登录后,在右上角设置中选择“简体中文”提升用户体验。
- 模型文件存储路径优化:
通过环境变量OLLAMA_MODELS
将模型文件迁移至非系统盘(如D:\ollama_models
),避免C盘爆满。 - 端口冲突处理:
若8080端口被占用,可通过--port
参数指定其他端口:open-webui serve --port 8090
除了Open-webUI,还有一些其他的工具可以访问DeepSeek,有兴趣的朋友可以再去了解一下。
到目前为止,我们已经可以跟本地搭建DeepSeek进行对话了。不过一般的主机配置只能运行一些残血大模型,想要获取更智能的模型,DeepSeek官网api才是最佳选择。
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】凌霞软件回馈社区,博客园 & 1Panel & Halo 联合会员上线
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】博客园社区专享云产品让利特惠,阿里云新客6.5折上折
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· DeepSeek “源神”启动!「GitHub 热点速览」
· 我与微信审核的“相爱相杀”看个人小程序副业
· 微软正式发布.NET 10 Preview 1:开启下一代开发框架新篇章
· 如何使用 Uni-app 实现视频聊天(源码,支持安卓、iOS)
· C# 集成 DeepSeek 模型实现 AI 私有化(本地部署与 API 调用教程)