会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
sykline
人生本无止境,前行何须彷徨。
博客园
首页
新随笔
联系
订阅
管理
2021年5月4日
李宏毅2021春机器学习课程笔记——自注意力机制(Self-Attention)
摘要: 本文作为自己学习李宏毅老师2021春机器学习课程所做笔记,记录自己身为入门阶段小白的学习理解,如果错漏、建议,还请各位博友不吝指教,感谢!! 全连接网络的输入是一个向量,但是当输入是一个变长的向量序列时,就不能再使用全连接网络了。这种情况通常可以使用卷积网络或循环网络进行编码来得到一个相同长度的输出
阅读全文
posted @ 2021-05-04 19:13 sykline
阅读(2802)
评论(2)
推荐(1)
编辑
公告