会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
iSherryZhang
博客园
首页
新随笔
联系
订阅
管理
2023年3月21日
王树森Transformer学习笔记
摘要: Transformer Transformer是完全由Attention和Self-Attention结构搭建的深度神经网络结构。 其中最为重要的就是Attention和Self-Attention结构。 Attention结构 Attention Layer接收两个输入$X = [x_1, x_2
阅读全文
posted @ 2023-03-21 18:10 iSherryZhang
阅读(309)
评论(0)
推荐(0)
编辑
公告