摘要: RNN系列: 聊聊RNN&LSTM 聊聊RNN与seq2seq attention mechanism,称为注意力机制。基于Attention机制,seq2seq可以像我们人类一样,将“注意力”集中在必要的信息上。 Attention的结构 seq2seq存在的问题 seq2seq中使用编码器对时序 阅读全文
posted @ 2023-11-01 11:33 又见阿郎 阅读(298) 评论(0) 推荐(0) 编辑