Loading

摘要: 相对于普通的LSTM实现的seq2seq模型,在编码器的区别就是传递的隐状态不同。附加Attention的模型会将编码器所有时刻的隐状态作为一个矩阵传入解码器。解码器的大致结构如图: 假设编码器传入的矩阵为hs,解码器某LSTM节点生成的向量为h。此时,我们的目标是用数值表示这个 h 在多大程度上和 阅读全文
posted @ 2021-11-08 17:23 国家三级保护废物 阅读(331) 评论(0) 推荐(1) 编辑