最简单ollama+open-webui安装方式

史上最简单open-webui安装方式

一、安装python3.11

这里需要注意,不要用python3.11以上的版本,否则不兼容

1、到python官网下载python3.11
链接:https://www.python.org/ftp/python/3.11.9/python-3.11.9-amd64.exe

2.双击安装包,开始安装,注意勾选[Add python 3.11 to Path]选项!!

3.选择Customize install选项,建议把安装路径改为其他盘(注意!安装路径中不能有中文)

二、测试python

1、按下win+r打开运行框,输入cmd,回车

2、在命令提示符中输入python

3、自动显示:

在这里插入图片描述
3、输入exit()退出python

4、输入pip list,显示:

在这里插入图片描述

三、pip换源

在cmd中输入:

pip config set global.index-url https://mirrors.aliyun.com/pypi/simple
 

四、在线安装open-webui

1、打开cmd,输入:

pip install open-webui

等待安装完成~~

2、等待过程结束后,输入:

open-webui serve

不出意外的话,就要出意外了:

ERROR: can not connect to "http://hf-com.co" is your computer offline?

五、解决can not connet问题

1、出现以上问题是因为国内访问国外网站信号不好

2、解决方案:

打开cmd,输入:

pip install open-webui==0.2.0

3、安装完成后,打开cmd输入:

open-webui serve

自动显示:

在这里插入图片描述
安装成功后,出现Open-Webui界面:

在这里插入图片描述
打开Open-Webui网页

六、升级open-webui

打开cmd,输入:

pip install open-webui --upgrade
 

七、运行ollama+open-webui

1、打开cmd,输入:

ollama serve

在这里插入图片描述
2、打开另一个cmd,输入:

open-webui serve

在这里插入图片描述

3、访问链接:

open-webui

网站截图:

在这里插入图片描述
登陆界面截图:

在这里插入图片描述

八、docker安装open-webui

1.如果您的计算机上安装了Ollama,可以使用以下命令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.nju.edu.cn/open-webui/open-webui:main

2.如果Ollama在另一台服务器上,请使用以下命令:
连接到另一台服务器上的Ollama时,请将OLLAMA_BASE_URL更改为服务器的URL:

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always  ghcr.nju.edu.cn/open-webui/open-webui:main

要使用Nvidia GPU支持运行Open WebUI,请使用以下命令:

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always  ghcr.nju.edu.cn/open-webui/open-webui:cuda

3.带有捆绑Ollama支持的Open WebUI安装
此安装方法使用一个单独的容器映像,将Open WebUI与Ollama捆绑在一起,通过单个命令实现简化设置。根据您的硬件设置选择适当的命令:

使用GPU支持:通过运行以下命令利用GPU资源

docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always  ghcr.nju.edu.cn/open-webui/open-webui:ollama

4.如果内存>16GB,推荐使用docker,如果内存<=16GB,推荐使用python+open-webui

 

2025-02-16 20:35:36【出处】:https://blog.csdn.net/xianfianpan/article/details/143441456

=======================================================================================

Windows下Ollama与Open-WebUI的安装与实战指南

引言

随着人工智能技术的飞速发展,大型语言模型(LLM)在各个领域的应用越来越广泛。Ollama和Open-WebUI作为两款优秀的工具,能够帮助用户在本地便捷地部署和运行LLM。本文将详细介绍在Windows系统下如何安装Ollama和Open-WebUI,并分享一些实战经验。

Ollama的安装

步骤一:下载Ollama

  1. 访问Ollama的官方网站或GitHub页面(github.com/ollama/ollama),根据系统提示下载适合Windows的版本。
  2. 下载完成后,双击安装包进行安装。默认情况下,Ollama会安装在C盘,但用户也可以自定义安装路径。

步骤二:配置环境

  • 如果你的模型文件较大,建议将模型安装在非系统盘以节省空间。可以通过在系统变量中添加OLLAMA_MODELS环境变量来指定模型文件的存储路径。

步骤三:启动Ollama服务

  • 打开命令提示符(CMD)或PowerShell,输入ollama serve命令启动Ollama服务。
  • 也可以使用其他常用命令如ollama create(从模型文件创建模型)、ollama run(运行模型)等。

Open-WebUI的安装

步骤一:准备环境

  • 确保你的系统已安装Python 3.11或更高版本。
  • 安装Node.js和npm,以便后续构建Open-WebUI。

步骤二:克隆Open-WebUI项目

  1. 打开Git Bash或终端,输入以下命令克隆Open-WebUI项目到本地:
    1. git clone https://github.com/open-webui/open-webui
  2. 进入项目目录:
    1. cd open-webui

步骤三:安装依赖并构建项目

  1. 安装npm(如果尚未安装)并设置国内代理以加快安装速度。
  2. 在项目目录下执行npm install命令安装所有依赖。
  3. 使用npm run build命令构建项目。

步骤四:启动Open-WebUI服务

  • 进入backend目录,执行start_windows.bat脚本启动服务。注意,该脚本可能会联网下载模型文件,建议使用代理加速下载。
  • 打开浏览器,访问http://127.0.0.1:8080,即可进入Open-WebUI的网页界面。

实战应用

模型部署与交互

  • 在Ollama中成功部署模型后,可以通过Open-WebUI的网页界面与模型进行交互。
  • Open-WebUI提供了丰富的功能和界面,如直观的聊天界面、Markdown和LaTeX支持、网页浏览能力、提示预设支持等,极大地提升了用户体验。

数据管理与安全

  • Open-WebUI支持从Web UI直接下载或删除模型,方便用户管理本地模型。
  • 通过RLHF注释功能,用户可以对消息进行评级,以创建强化学习数据集,用于训练或微调模型。

多模态交互

  • Open-WebUI支持多模态交互,如图像生成集成,可以与支持图像输入的LLM无缝交互。

注意事项

  • 在安装和使用过程中,请确保你的计算机配置符合模型运行的要求,特别是内存和存储空间。
  • 考虑到数据安全,建议定期备份重要数据,并避免在不安全的网络环境下使用这些工具。

结论

通过本文的指南,你应该能够在Windows系统下成功安装Ollama和Open-WebUI,并初步掌握它们的使用方法。这两款工具为大型语言模型的本地部署和交互提供了便捷的途径,希望你在实际应用中能够充分发挥它们的潜力,创造出更多有价值的成果。

 

出处:https://developer.baidu.com/article/details/3327726

=======================================================================================

Open-WebUI的本地安装指南

随着人工智能技术的不断发展,大型语言模型(LLMs)已成为自然语言处理领域的热门话题。为了方便用户与LLMs进行交互,Open-WebUI应运而生。Open-WebUI是一个友好型的Web用户界面,为LLMs提供了直观的操作体验。本文将介绍如何在非Docker环境下手动安装Open-WebUI,并详细解释每个步骤,帮助读者轻松完成安装。

一、准备工作

在开始安装之前,请确保您的系统满足以下要求:

  1. 操作系统:支持Linux、Windows和macOS等主流操作系统。
  2. Python环境:需要安装Python 3.x版本,并配置好环境变量。
  3. 依赖库:确保已安装必要的依赖库,如Flask、Jinja2等。

二、下载源码并解压

  1. 访问Open-WebUI的GitHub项目页面:https://github.com/open-webui/open-webui
  2. 在项目页面中找到“Clone or download”按钮,选择“Download ZIP”下载源码压缩包。
  3. 将下载的压缩包解压到指定目录,例如/path/to/open-webui

三、编辑汉化文件

Open-WebUI支持多语言,包括中文。为了让界面显示为中文,我们需要编辑汉化文件。

  1. 进入解压后的Open-WebUI目录,找到translations文件夹。
  2. translations文件夹中,找到以.po为后缀的中文翻译文件,例如zh_CN.po
  3. 使用文本编辑器打开中文翻译文件,将翻译内容修改为合适的中文表述。
  4. 保存修改后的文件。

四、启动Python Web服务

Open-WebUI使用Flask框架搭建Web服务,我们可以使用Python来启动它。

  1. 打开终端或命令提示符,进入Open-WebUI的根目录。
  2. 运行以下命令安装必要的依赖库(如果尚未安装):
  1. pip install -r requirements.txt
  1. 运行以下命令启动Flask Web服务:
  1. python app.py
  1. 服务启动后,默认情况下会在浏览器中自动打开Open-WebUI的登录页面。如果未自动打开,可以手动访问http://127.0.0.1:5000/来访问登录页面。

五、登录并使用Open-WebUI

现在,您已经成功安装了Open-WebUI,并启动了Web服务。接下来,您可以登录并开始使用Open-WebUI提供的各项功能。

  1. 在登录页面输入用户名和密码(默认为adminpassword),点击登录按钮。
  2. 登录成功后,您将看到Open-WebUI的主界面。在这里,您可以与LLMs进行交互,享受Open-WebUI提供的各项功能。

六、总结

通过本文的介绍,您应该已经掌握了在非Docker环境下手动安装Open-WebUI的方法。在实际使用过程中,如果遇到任何问题,可以参考Open-WebUI的官方文档或寻求社区的帮助。希望本文能够帮助您顺利安装并使用Open-WebUI,享受与LLMs的愉快交互。

 

出处:https://developer.baidu.com/article/detail.html?id=3316619

=======================================================================================

posted on   jack_Meng  阅读(746)  评论(0编辑  收藏  举报

相关博文:
阅读排行:
· DeepSeek “源神”启动!「GitHub 热点速览」
· 微软正式发布.NET 10 Preview 1:开启下一代开发框架新篇章
· C# 集成 DeepSeek 模型实现 AI 私有化(本地部署与 API 调用教程)
· DeepSeek R1 简明指南:架构、训练、本地部署及硬件要求
· NetPad:一个.NET开源、跨平台的C#编辑器
历史上的今天:
2017-02-16 在winform下实现左右布局多窗口界面的方法(二)
2017-02-16 在winform下实现左右布局多窗口界面的方法(一)

导航

< 2025年2月 >
26 27 28 29 30 31 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 1
2 3 4 5 6 7 8
点击右上角即可分享
微信分享提示

喜欢请打赏

扫描二维码打赏

支付宝打赏

主题色彩