摘要: BERT 课程笔记 1. 传统方案遇到的问题 BERT的核心在于Transformer,Transformer就类似seq2seq网络输入输出之间的网络结构。 传统的RNN网络:最大的问题,因为不能并行计算,所以往往深度不够。 传统的word2vec:同一个词一经训练词向量便确定了下来,缺乏适应不同 阅读全文
posted @ 2020-02-27 16:42 Yanqiang 阅读(841) 评论(0) 推荐(0) 编辑