会员
周边
捐助
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
RowryCho
好好写代码..
博客园
首页
新随笔
联系
管理
2021年10月11日
动手学深度学习 | 自注意力 | 67
摘要: 自注意力 在介绍transformer之前,先讲一个比价重要的东西=》 self-attention。self-attention其实没有什么特殊的地方,主要就是key,value,query到底要怎么选择,自注意力机制有自己的一套选法。 CNN,RNN,self-attention都可以用来处理序
阅读全文
posted @ 2021-10-11 08:31 RowryCho
阅读(423)
评论(0)
推荐(0)
编辑
公告