摘要: 知识点扫盲首先要知道bert是什么,从全称Pre-training o f Deep Bidirectional Transformers for Language Understanding可以看出bert是一个深层双向的Transformer的预训练模型。这里涉及到两个概念Transformer 阅读全文
posted @ 2022-03-23 08:00 青竹之下 阅读(202) 评论(0) 推荐(0) 编辑