摘要: 摘要: 提出了一个新的语言表示模型(language representation), BERT: Bidirectional Encoder Representations from Transformers。不同于以往提出的语言表示模型,它在每一层的每个位置都能利用其左右两侧的信息用于学习,因此 阅读全文
posted @ 2019-07-16 23:02 Mata 阅读(2580) 评论(0) 推荐(0) 编辑