开始
大家好呀,最近我在研究LLM
,但是是本地大语言模型。其中我主要使用的软件是Ollama
。
Ollama
可以方便的下载及运行LLM
Ollama
提供了一套REST Api,并且已经有了ollama-js
这个库,可以方便的调用接口,所以我们可以自己写一套WebUI。
那么为什么不用别人写好的呢?我找了些开源项目,但大多是python编写的,且较重量,而我想要的只是一个简便的聊天界面。
并且实际上自己写也不是特别麻烦,有许多开源项目可以参考,所以我花几天时间实现了一个功能齐全的前端界面。
开源地址:ollama-chat-ui: vue3 ollama webUI
截图如下。
界面
聊天
代理
系统提示词
多主题
详细说说
因为是专门设计于个人与LLM
的聊天的,所以整个项目只涉及前端。
项目所有数据都存放在本地存储中,注意不要和其他项目混淆了。
其中的聊天记录每个代理都是分开的,可以一定程度避免加载慢的问题。
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】凌霞软件回馈社区,博客园 & 1Panel & Halo 联合会员上线
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】博客园社区专享云产品让利特惠,阿里云新客6.5折上折
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 清华大学推出第四讲使用 DeepSeek + DeepResearch 让科研像聊天一样简单!
· 推荐几款开源且免费的 .NET MAUI 组件库
· 实操Deepseek接入个人知识库
· 易语言 —— 开山篇
· 【全网最全教程】使用最强DeepSeekR1+联网的火山引擎,没有生成长度限制,DeepSeek本体