一文彻底整明白,基于Ollama工具的LLM大语言模型Web可视化对话机器人部署指南
为了方便把我们的大模型对话机器人分享出去,聊天机器人最后是基于Web网站,可通过浏览器访问,本文正是通过Ollama和WebUI在本地部署Llama 3Web 版聊天机器人,本文包括如下部分:
什么是Ollama,它与Llama是什么关系?
安装Ollama大语言模型工具
安装Node.js编程语言工具包(为接下来的 Web 可视化聊天界面做好准备)
基于Llama 3 8BGGUF 模型文件创建Ollama模型文件
部署Ollama大模型 Web 可视化聊天界面
愉快的与Llama 3大模型俩天对话
最后,Ollama大模型工具的其他用法
什么是Ollama,它与Llama是什么关系?
Ollama是一个开源的 LLM(大型语言模型)服务工具,用于简化在本地运行大语言模型,降低使用大语言模型的门槛,使得大模型的开发者、研究人员和爱好者能够在本地环境快速实验、管理和部署最新大语言模型,包括如Llama 3、Phi 3、Mistral、Gemma等开源的大型语言模型。
Ollama目前支持以下大语言模型:https://ollama.com/library
Ollama支持的大模型列表
因此,Ollama与Llama的关系:Llama是大语言模型,而Ollama是大语言模型(不限于Llama模型)便捷的管理和运维工具
安装Ollama大语言模型工具
Ollama提供了MacOS、Linux和Windows操作系统的安装包,大家可根据自己的操作系统,下载安装即可:
Ollama下载页面
安装包下载之后的安装过程,和日常安装其他软件没有差别,包括点击Next以及Install等安装ollama到命令行。安装后续步骤中,我们可无需安装任何模型(默认是Llama 3),因为我们在上文中已经安装了Llama 3 8B大模型,后面可以直接使用。
当然,假如没有根据我的前面博文安装Llama 3 8B模型,在安装Ollama过程中,也可以一起进行安装。
安装Node.js编程语言工具包
安装Node.js编程语言工具包和安装其他软件包一样,下载安装即可:https://nodejs.org
Node.js下载页面
安装完成之后,可以验证一下 Node.js 的版本,建议用目前的最新v20版本:
node -v
1
我安装的版本:v20.13.1(最新版本)
基于Llama 3 8BGGUF 模型文件创建Ollama模型
在我们存放Llama 3 8B的 GGUF 模型文件目录中,创建一个文件名为Modelfile的文件,该文件的内容如下:
FROM ./Meta-Llama-3-8B-Instruct.Q4_K_M.gguf
1
然后在控制台,使用这个文件创建Ollama模型,这里我把Ollama的模型取名为Llama-3-8B:
$ ollama create Llama-3-8B -f ./Modelfile transferring model data using existing layer sha256:647a2b64cbcdbe670432d0502ebb2592b36dd364d51a9ef7a1387b7a4365781f creating new layer sha256:459d7c837b2bd7f895a15b0a5213846912693beedaf0257fbba2a508bc1c88d9 writing manifest success
1
最后,通过Ollama启动我们刚创建的大语言模型:
ollama run Llama-3-8B
1
Ollama启动成功输出
启动完毕,其实我们已经有了一个控制台聊天界面,可以通过控制台与Llama-3-8B聊天了
如果我们不想要这个模型了,也可以通过命令行删除模型文件:ollama rm Llama-3-8B
Ollama存放模型文件根目录:~/.ollama
部署Ollama大模型 Web 可视化聊天界面
控制台聊天对话界面体验总归是不太好,接下来部署 Web 可视化聊天界面。
首先,下载ollama-webuiWeb 工程代码:git clone https://github.com/ollama-webui/ollama-webui-lite
然后切换ollama-webui代码的目录:cd ollama-webui-lite
设置 Node.js 工具包镜像源,以接下来下载 Node.js 的依赖包更加快速:npm config set registry http://mirrors.cloud.tencent.com/npm/
安装 Node.js 依赖的工具包:npm install
最后,启动 Web 可视化界面:npm run dev
Web对话机器人部署成功输出
如果看到以上输出,代表 Web 可视化界面已经成功了!
愉快的与Llama 3大模型俩天对话
浏览器打开 Web 可视化界面:http://localhost:3000/
可以看到Ollama的初始化页面,默认没有模型,需要选择,我们选择刚创建并部署的Llama-3-8B模型:
选择大模型
选择大模型
底部就是聊天输入框,至此可以愉快的与Llama 3聊天对话了:
Web 对话聊天机器人的设置,大家可以基于 Web 网站设置,这里不在介绍,有需要的网友可以私信一起研究进步!
禅定:Ollama工具的其他用法
从上文的介绍可以看到,基于Ollama部署一个大模型的 Web 可视化对话机器人,还是非常方便。下面整理了部分Ollama提供的用法或者。
Ollama 命令工具
# 查看当前Ollama的模型 ollama list # 增量更新当前部署的模型 ollama pull Llama-3-8B # 删除一个模型文件 ollama rm Llama-3-8B # 复制一个模型 ollama cp Llama-3-8B Llama-newModel
1
Ollama API结果返回
curl http://localhost:11434/api/generate -d '{ "model": "Llama-3-8B", "prompt":"为什么天空是蓝色的?" }'
1
Ollama API聊天对话
curl http://localhost:11434/api/chat -d '{ "model": "Llama-3-8B", "messages": [ { "role": "user", "content": "为什么天空是蓝色的?" } ] }'
1
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
大模型 AI 能干什么?
大模型是怎样获得「智能」的?
用好 AI 的核心心法
大模型应用业务架构
大模型应用技术架构
代码示例:向 GPT-3.5 灌入新知识
提示工程的意义和核心思想
Prompt 典型构成
指令调优方法论
思维链和思维树
Prompt 攻击和防范
…
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
为什么要做 RAG
搭建一个简单的 ChatPDF
检索的基础概念
什么是向量表示(Embeddings)
向量数据库与向量检索
基于向量检索的 RAG
搭建 RAG 系统的扩展知识
混合检索与 RAG-Fusion 简介
向量模型本地部署
…
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
为什么要做 RAG
什么是模型
什么是模型训练
求解器 & 损失函数简介
小实验2:手写一个简单的神经网络并训练它
什么是训练/预训练/微调/轻量化微调
Transformer结构简介
轻量化微调
实验数据集的构建
…
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
硬件选型
带你了解全球大模型
使用国产大模型服务
搭建 OpenAI 代理
热身:基于阿里云 PAI 部署 Stable Diffusion
在本地计算机运行大模型
大模型的私有化部署
基于 vLLM 部署大模型
案例:如何优雅地在阿里云私有部署开源大模型
部署一套开源 LLM 项目
内容安全
互联网信息服务算法备案
…
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
————————————————
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
原文链接:https://blog.csdn.net/Python_cocola/article/details/139361223
posted on 2025-02-11 11:27 ExplorerMan 阅读(83) 评论(0) 编辑 收藏 举报
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】凌霞软件回馈社区,博客园 & 1Panel & Halo 联合会员上线
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】博客园社区专享云产品让利特惠,阿里云新客6.5折上折
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· DeepSeek “源神”启动!「GitHub 热点速览」
· 我与微信审核的“相爱相杀”看个人小程序副业
· 微软正式发布.NET 10 Preview 1:开启下一代开发框架新篇章
· 如何使用 Uni-app 实现视频聊天(源码,支持安卓、iOS)
· C# 集成 DeepSeek 模型实现 AI 私有化(本地部署与 API 调用教程)
2022-02-11 mvn LifecyclePhaseNotFoundException
2022-02-11 windows下安装配置Maven