摘要: 0、引言 BERT(Bidirectional Encoder Representations from Transformers)自从谷歌提出就一直大热。首先,它在自然语言处理(NLP)的11个任务中均有较大程度性能提升;其次,BERT在无监督场景下结合预训练能够最大化地利用文本数据,同时对不同场 阅读全文
posted @ 2020-08-11 21:40 Joshua王子 阅读(200) 评论(0) 推荐(0) 编辑