摘要: Bert: Bidirectional Encoder Representations from Transformers. 主要创新点:Masked LM 和 Next sentence prediction。 NNLM:参考 :http://d0evi1.com/nnlm/ Bert是一个预训练 阅读全文
posted @ 2019-06-17 20:26 慕云深 阅读(529) 评论(0) 推荐(0) 编辑