摘要: 最近在关注谷歌发布关于BERT模型,它是以Transformer的双向编码器表示。顺便回顾了《Attention is all you need》这篇文章主要讲解Transformer编码器。使用该模型在神经机器翻译及其他语言理解任务上的表现远远超越了现有算法。 在 Transformer 之前,多 阅读全文
posted @ 2018-11-29 23:36 sxron 阅读(13571) 评论(0) 推荐(0) 编辑