摘要: 什么是Attention 在 seq to seq 模型中, 我们常常在 decoder 阶段加入Attention 机制, 主要是对于decoder 的隐含层输入, 引入更多的有关 encoder 序列中, 中间步骤的信息. 在这里就不详细解释了, 我们将Attention 从模型中剥离出来, 以 阅读全文
posted @ 2020-02-26 21:31 虾野百鹤 阅读(1022) 评论(1) 推荐(0) 编辑