随笔 - 53,  文章 - 0,  评论 - 7,  阅读 - 9640

开始

大家好呀,最近我在研究LLM,但是是本地大语言模型。其中我主要使用的软件是Ollama

Ollama可以方便的下载及运行LLM

Ollama提供了一套REST Api,并且已经有了ollama-js这个库,可以方便的调用接口,所以我们可以自己写一套WebUI。

那么为什么不用别人写好的呢?我找了些开源项目,但大多是python编写的,且较重量,而我想要的只是一个简便的聊天界面。

并且实际上自己写也不是特别麻烦,有许多开源项目可以参考,所以我花几天时间实现了一个功能齐全的前端界面。

开源地址:ollama-chat-ui: vue3 ollama webUI

截图如下。

界面

聊天

image

代理

image

系统提示词

image
image

多主题

image

image

详细说说

因为是专门设计于个人与LLM的聊天的,所以整个项目只涉及前端。

项目所有数据都存放在本地存储中,注意不要和其他项目混淆了。
image

其中的聊天记录每个代理都是分开的,可以一定程度避免加载慢的问题。

posted on   落寞的雪  阅读(463)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 清华大学推出第四讲使用 DeepSeek + DeepResearch 让科研像聊天一样简单!
· 推荐几款开源且免费的 .NET MAUI 组件库
· 实操Deepseek接入个人知识库
· 易语言 —— 开山篇
· 【全网最全教程】使用最强DeepSeekR1+联网的火山引擎,没有生成长度限制,DeepSeek本体

< 2025年2月 >
26 27 28 29 30 31 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 1
2 3 4 5 6 7 8
点击右上角即可分享
微信分享提示