会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
西多士NLP
博客园
首页
联系
订阅
管理
2019年11月28日
预训练语言模型整理(ELMo/GPT/BERT...)
摘要: [TOC] 简介 2018年ELMo/GPT/BERT的相继提出,不断刷新了各大NLP任务排行榜,自此,NLP终于找到了一种方法,可以像计算机视觉那样进行迁移学习,被誉为NLP新时代的开端。 与计算机视觉领域预训练模型不同的是,其通过采用自监督学习的方法,将大量的无监督文本送入到模型中进行学习,即可
阅读全文
posted @ 2019-11-28 11:12 西多士NLP
阅读(11294)
评论(0)
推荐(5)
编辑
公告