1月26日总结(服务外包杯大模型总结)
在本地部署了chatglm3大模型的cpu运行版本,但是运行速度太缓慢。
在阿里云服务器部署了langchain-chatglm大模型,还有一个langchain-chatchat版本,之后会尝试一下。
观看了一些视频,有一些想法:
赛题官方答复可以做多个城市的旅游知识库。
可以添加多模态,生成图片音频,这可以作为一个进阶拔高的地方,目前只是听说了有这方面的内容,还未了解过怎么实现。
chatglm3新特性,可以实现多角色对话,使用系统角色告诉大模型身份,他能够记得更牢固。
各个模型的推理能力对比,目前使用的chatglm3和gpt3相当,日后会考虑购买chatgpt4提升推理能力。
通过以上两张图片可以看出,接入知识库的原理是(个人理解的):将用户输入的问题输入的问题现在知识库匹配,再将匹配到的内容和用户的问题一并交给大模型,让大模型给出答复。所以使用远程的大模型也可以接入知识库。
chatglm3的新特性,可以调用外部工具,日后可以为系统扩展更多功能。
大模型的多轮对话就是把之前问答的所有信息记录下来,在一次性的喂给他,他的模型本身是没有记忆能力的,是要靠代码把之前的问答存储下来的。
日后的一个扩展方向,sql代码解释器,直接向大模型提出需求,让大模型给出sql代码并执行,直接给出结果。
本文作者:lmyyyy
本文链接:https://www.cnblogs.com/lmyy/p/17988867
版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 2.5 中国大陆许可协议进行许可。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 分享4款.NET开源、免费、实用的商城系统
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
· 记一次.NET内存居高不下排查解决与启示