摘要: BERT模型总结 前言 ​ BERT是在Google论文《BERT: Pre training of Deep Bidirectional Transformers for Language Understanding》中被提出的,是一个面向NLP的无监督预训练模型,并在多达11个任务上取得了优秀的 阅读全文
posted @ 2020-02-03 20:18 ffjsls 阅读(5941) 评论(0) 推荐(0) 编辑