摘要: Transformer 是谷歌大脑在 2017 年底发表的论文attention is all you need中所提出的 seq2seq 模型。现在已经取得了大范围的应用和扩展,而 BERT 就是从 Transformer 中衍生出来的预训练语言模型 这篇文章分为以下几个部分: Transform 阅读全文
posted @ 2022-12-01 23:14 时光如你般美好 阅读(231) 评论(0) 推荐(0) 编辑