Fork me on GitHub 返回顶部
摘要: 本文翻译自Jay Alammar的博客 "The Illustrated BERT, ELMo, and co. (How NLP Cracked Transfer Learning)" [TOC] 2018年是机器学习模型处理文本(更准确地说,是自然语言处理或简称NLP)的转折点。我们对以何种方式 阅读全文
posted @ 2018-12-23 21:14 d0main 阅读(21475) 评论(0) 推荐(5) 编辑
摘要: 本文翻译自 "Jay Alammar的博文The Illustrated Transformer" [TOC] 注意力是一个有助于提高神经机器翻译模型性能的机制。在这篇文章中,我们将着眼于Transformer——一个利用注意力来提高模型训练速度的模型。Transformer在特定任务中的性能优于G 阅读全文
posted @ 2018-12-23 14:17 d0main 阅读(6457) 评论(0) 推荐(1) 编辑