会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
蓝鲸王子
机器学习、深度学习、分布式计算研究者
博客园
首页
联系
订阅
管理
2017年9月22日
Deep Learning基础--理解LSTM/RNN中的Attention机制
摘要: 导读 目前采用编码器-解码器 (Encode-Decode) 结构的模型非常热门,是因为它在许多领域较其他的传统模型方法都取得了更好的结果。这种结构的模型通常将输入序列编码成一个固定长度的向量表示,对于长度较短的输入序列而言,该模型能够学习出对应合理的向量表示。然而,这种模型存在的问题在于:当输入序
阅读全文
posted @ 2017-09-22 10:32 蓝鲸王子
阅读(44802)
评论(5)
推荐(11)
编辑
公告