合集-大模型技术与应用

摘要:用AI辅助我们进行代码开发,可以做的事情有很多,比如功能代码生成、代码优化、bug排查、代码补全、代码逻辑分析、代码注释、生成测试用例等等,甚至没有编程经验的朋友也可以在AI的辅助下完成某些开发任务。 经作者实测,在使用DeepSeek-R1:1.5b过程中模型加载和推理共占用1.6G显存(显卡是RTX 3060 Laptop,运行流畅) 阅读全文
posted @ 2025-02-05 21:12 观智能 阅读(65) 评论(0) 推荐(0) 编辑
摘要:RAG全称是Retrieval-Augmented Generation,即检索增强生成。通俗来讲,就是在用户提的问题的基础上,引入相关资料信息,把“问题+相关资料” 一起给大模型,让大模型在参考资料的约束或提示下回答问题而不是随意发挥,从而期望大模型生成质量更高、更准确的答案,改善大模型”幻觉“、训练数据过时、 知识范围有限等带来的负面问题。 阅读全文
posted @ 2025-02-06 11:21 观智能 阅读(11) 评论(0) 推荐(0) 编辑
摘要:该案例的任务类型是目标检测,也可将这个案例作为其它计算机视觉任务的模版,比如图片生成、目标追踪、图像分割、图生图、文生图...... 阅读全文
posted @ 2025-02-06 11:26 观智能 阅读(35) 评论(0) 推荐(0) 编辑
摘要:由于扣子平台的简单易用和功能强大,有过万家企业使用了扣子为自己的业务AI赋能,越来越多的个人也在扣子上把自己的想象力转变成具有娱乐性、实用价值或者商业价值的AI产品。 阅读全文
posted @ 2025-02-06 11:33 观智能 阅读(21) 评论(0) 推荐(0) 编辑
摘要:本文要介绍的是字节跳动的Coze(扣子)平台,这是一个面向大众的低门槛的智能体构建平台。使用者不需要写代码,也不需要具备AI知识,按照平台的使用指导,就可以构建出功能丰富的AI应用,并且可以将它们发布到抖音、微信公众号和掘金等平台使用。 阅读全文
posted @ 2025-02-06 11:36 观智能 阅读(9) 评论(0) 推荐(0) 编辑
摘要:对于深度学习中最常用的卷积神经网络CNN和循环神经网络RNN,我们知道其计算过程就是按照位置逐步进行的,所以一般不需要额外给输入数据添加位置信息,而由上所述,Transformer的输入数据则需要我们人为地为其注入位置信息。 阅读全文
posted @ 2025-02-06 11:40 观智能 阅读(37) 评论(0) 推荐(0) 编辑
摘要:本文将剖析Transformer关于注意力机制的几个技术要点,包括encoder端的自注意力机制、decoder端的masked自注意力机制(训练阶段需要,推理阶段也需要)以及decoder端的交叉注意力机制等,而架构的其它部分将简单略过。搞清楚了这些技术要点,我们就能对Transformer的整体架构有一个清晰的认知,并为灵活地使用该模型打下基础。 阅读全文
posted @ 2025-02-06 11:43 观智能 阅读(106) 评论(0) 推荐(0) 编辑
摘要:Transformer开启了大语言模型时代,Vision Transformer则是打破了自然语言处理(NLP)和计算机视觉(CV)在技术差异上的壁垒,在一些图像识别任务的测试对比中表现出与CNN相媲美甚至更好的效果,证明了用于处理序列的Transformer技术架构在CV领域的有效性。 阅读全文
posted @ 2025-02-06 11:45 观智能 阅读(12) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示