bert、ernie、ernie-tiny、roberta的区别
摘要:
BERT、RoBerta、ERNIE模型对比和改进点总结 1、BERT总结 首先BERT是transformers的encoder部分,BERT有两大训练任务分别是: mask lm:给定一句话,随机抹去这句话中的一个或几个词,要求根据剩余词汇预测被抹去的几个词分别是什么。 next sentenc 阅读全文
posted @ 2022-02-14 12:32 enhaofrank 阅读(1530) 评论(0) 推荐(0) 编辑