摘要: ERT的全称为Bidirectional Encoder Representation from Transformers,是一个预训练的语言表征模型。它强调了不再像以往一样采用传统的单向语言模型或者把两个单向语言模型进行浅层拼接的方法进行预训练,而是采用新的masked language mode 阅读全文
posted @ 2022-04-02 08:00 青竹之下 阅读(30) 评论(0) 推荐(0) 编辑