会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Morfeo
github.com/YanqiangWang
博客园
首页
新随笔
联系
管理
订阅
2020年2月27日
【笔记】B站-2019-NLP(自然语言处理)之 BERT 课程 -- BERT理论部分
摘要: BERT 课程笔记 1. 传统方案遇到的问题 BERT的核心在于Transformer,Transformer就类似seq2seq网络输入输出之间的网络结构。 传统的RNN网络:最大的问题,因为不能并行计算,所以往往深度不够。 传统的word2vec:同一个词一经训练词向量便确定了下来,缺乏适应不同
阅读全文
posted @ 2020-02-27 16:42 Yanqiang
阅读(834)
评论(0)
推荐(0)
编辑
公告