摘要: 目录 #bert基本了解 (1)bert(Bidirectional Encoded Representation from Transformer)是一直预训练语言模型,是一种双向的、无监督的语言模型 (2)预训练模型可以分为上下文无关或上下文有关,上下文有关有可以分为单向和双向的。上下文无关是指 阅读全文
posted @ 2020-12-28 09:50 爱弹琴的小黑 阅读(158) 评论(0) 推荐(0) 编辑