会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
牛犁heart
Stay Hungry,Stay Foolilsh
博客园
首页
新随笔
联系
订阅
管理
2024年10月19日
LLM主要架构
摘要: LLM本身基于Transformer架构 自2017年,Attention is all you need诞生起,原始的Transformer模型不同领域的模型提供了灵感和启发 基于原始的Transformer框架,衍生了一系列模型,一些模型仅仅使用encode或decoder,有些模型同时使用en
阅读全文
posted @ 2024-10-19 18:21 牛犁heart
阅读(167)
评论(0)
推荐(0)
编辑
公告