会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
又见阿郎
博客园
首页
新随笔
联系
订阅
管理
2023年11月1日
聊聊RNN与Attention
摘要: RNN系列: 聊聊RNN&LSTM 聊聊RNN与seq2seq attention mechanism,称为注意力机制。基于Attention机制,seq2seq可以像我们人类一样,将“注意力”集中在必要的信息上。 Attention的结构 seq2seq存在的问题 seq2seq中使用编码器对时序
阅读全文
posted @ 2023-11-01 11:33 又见阿郎
阅读(298)
评论(0)
推荐(0)
编辑
公告