摘要: [TOC] 前言 在18年末时,NLP各大公众号、新闻媒体都被BERT(《BERT: Pre training of Deep Bidirectional Transformers for Language Understanding》)刷屏了,刷新了自然语言处理11项纪录,也被称为了2018年最强 阅读全文
posted @ 2019-05-07 11:34 xlturing 阅读(19604) 评论(5) 推荐(0) 编辑