会员
周边
捐助
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
致林
github.com/haibincoder
博客园
首页
联系
订阅
管理
2018年10月14日
【转载】最强NLP预训练模型!谷歌BERT横扫11项NLP任务记录
摘要: 本文介绍了一种新的语言表征模型 BERT——来自 Transformer 的双向编码器表征。与最近的语言表征模型不同,BERT 旨在基于所有层的左、右语境来预训练深度双向表征。BERT 是首个在大批句子层面和 token 层面任务中取得当前最优性能的基于微调的表征模型,其性能超越许多使用任务特定架构
阅读全文
posted @ 2018-10-14 19:35 致林
阅读(584)
评论(0)
推荐(0)
编辑
公告