摘要: self attention是提出Transformer的论文《Attention is all you need》中提出的一种... 阅读全文
posted @ 2020-03-09 18:20 从流域到海域 阅读(1162) 评论(0) 推荐(0) 编辑
摘要: 本篇博文介绍的Attention,全部是Seq2Sqeq的attention机制的变种,本质上也还是Seq2Seq的attent... 阅读全文
posted @ 2020-03-09 15:49 从流域到海域 阅读(549) 评论(0) 推荐(0) 编辑