摘要: ©NLP论文解读 原创•作者 |FLIPPED 研究背景 随着计算算力的不断增加,以transformer为主要架构的预训练模型进入了百花齐放的时代。BERT、RoBERTa等模型的提出为NLP相关问题的解决提供了极大的便利,但也引发了一些新的问题。 首先这些经过海量数据训练的模型相比于一般的深度模 阅读全文
posted @ 2021-12-29 23:36 NLP论文解读 阅读(1239) 评论(0) 推荐(0) 编辑