会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
叠加态的猫
博客园
首页
新随笔
联系
管理
订阅
2022年5月6日
On Recognizing Texts of Arbitrary Shapes with 2D Self-Attention
摘要: 和用LSTM的方法对比, 和transform相比主要区别在于编码器上,由3部分构成: 1、Shallow CNN,用于控制计算量 2、Adaptive 2D positional encoding 论文中说Transformer的Position Encoding模块可能在视觉作用中起不了作用,但
阅读全文
posted @ 2022-05-06 10:13 叠加态的猫
阅读(97)
评论(0)
推荐(0)
编辑
公告