会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
朱超超
博客园
首页
新随笔
联系
订阅
管理
2019年5月15日
深度学习中的Attention机制
摘要: 1.深度学习的seq2seq模型 从rnn结构说起 根据输出和输入序列不同数量rnn可以有多种不同的结构,不同结构自然就有不同的引用场合。如下图, one to one 结构,仅仅只是简单的给一个输入得到一个输出,此处并未体现序列的特征,例如图像分类场景。one to many 结构,给一个输入得到
阅读全文
posted @ 2019-05-15 09:47 USTC丶ZCC
阅读(1873)
评论(0)
推荐(0)
编辑
公告