2022年11月13日
摘要: Bert模型具有两个预训练任务,分别是 Masked LM 和 Next Sentence Prediction。 BERT 的第一个预训练任务是 Masked LM,在句子中随机遮盖一部分单词,然后同时利用上下文的信息预测遮盖的单词,这样可以更好地根据全文理解单词的意思。第二个预训练任务是Next 阅读全文
posted @ 2022-11-13 16:10 啥123 阅读(82) 评论(0) 推荐(0) 编辑