摘要: https://www.jianshu.com/p/25fc600de9fb 谷歌最近的一篇BERT取得了卓越的效果,为了研究BERT的论文,我先找出了《Attention is All You Need》,看看里面的Transformer模型作为基础。 Transformer是为了机器翻译任务中的 阅读全文
posted @ 2019-02-27 19:38 Django's blog 阅读(323) 评论(0) 推荐(0) 编辑