会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
marsggbo
互道晚安,王者峡谷见
博客园
首页
新随笔
联系
订阅
管理
2023年6月24日
《Transformer Quality in Linear Time》论文解读
摘要: 会议/期刊: ICML 年份: 2022 # 1. Vanilla Transformer Block(MHSA+FFN) 原本的Transformer的Block遵循如下的设计范式:MHSA(多头自注意力)+ 一层或者两层的FFN(全连接层),如下图所示。我们只考虑FFN的话,其数学表达式如下:T
阅读全文
posted @ 2023-06-24 09:49 marsggbo
阅读(624)
评论(0)
推荐(0)
编辑
公告