会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
光彩照人
每一次挫折都是一次蜕变,挫折越大,蜕变越彻底!
博客园
首页
新随笔
联系
订阅
管理
2018年12月19日
BERT(Bidirectional Encoder Representations from Transformers)理解
摘要: BERT的新语言表示模型,它代表Transformer的双向编码器表示。与最近的其他语言表示模型不同,BERT旨在通过联合调节所有层中的上下文来预先训练深度双向表示。因此,预训练的BERT表示可以通过一个额外的输出层进行微调(fine-tuning),适用于广泛任务的最先进模型的构建,比如问答任务和
阅读全文
posted @ 2018-12-19 15:32 光彩照人
阅读(5780)
评论(0)
推荐(1)
编辑
公告