Loading

摘要: 简介: BERT,全称Bidirectional Encoder Representations from Transformers,是一个预训练的语言模型,可以通过它得到文本表示,然后用于下游任务,比如文本分类,问答系统,情感分析等任务.BERT像是word2vec的加强版,同样是预训练得到词级别 阅读全文
posted @ 2018-12-17 17:07 hiyoung 阅读(2914) 评论(0) 推荐(0) 编辑