摘要: LLM本身基于Transformer架构 自2017年,Attention is all you need诞生起,原始的Transformer模型不同领域的模型提供了灵感和启发 基于原始的Transformer框架,衍生了一系列模型,一些模型仅仅使用encode或decoder,有些模型同时使用en 阅读全文
posted @ 2024-10-19 18:21 牛犁heart 阅读(167) 评论(0) 推荐(0) 编辑