摘要: 摘要 该论文介绍了一种新的语言表示模型BERT,它表示转换器的双向编码器表示。与最近的语言表示模型不同,BERT利用不标记的文本通过在所有层的上下文联合调节来预训练深层双向表示。因此,只需一个额外的输出层就可以对预先训练好的BERT表示进行微调,以便为各种任务创建最先进的模型,例如问答和语言推断,而 阅读全文
posted @ 2020-03-15 16:58 尔玉 阅读(203) 评论(0) 推荐(0) 编辑