AYE89

coding & learning

导航

2019年7月11日

摘要: 1.BERT模型 BERT的全称是Bidirectional Encoder Representation from Transformers,即双向Transformer的Encoder,因为decoder是不能获要预测的信息的。模型的主要创新点都在pre-train方法上,即用了Masked L 阅读全文

posted @ 2019-07-11 08:27 AYE89 阅读(644) 评论(0) 推荐(0) 编辑