摘要: 1、transformer transformer就是大名鼎鼎的论文《Attention Is All You Need》[1],其在一些翻译任务上获得了SOTA的效果。其模型整体结构如下图所示 encoder和decoder 其整体结构由encoder和decoder组成,其中encoder由6个 阅读全文
posted @ 2020-06-17 10:32 空空如也_stephen 阅读(5776) 评论(0) 推荐(0) 编辑