会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
kangheng
博客园
首页
新随笔
联系
订阅
管理
2020年6月14日
一周论文阅读20200614
摘要: Don’t Stop Pretraining: Adapt Language Models to Domains and Tasks 这篇文章研究nlp 的pretrain模型用任务相关的数据进一步预训练效果会更好。结论比较符合直觉,甚至感觉不用研究都能得出这个结论。方法上作者用robert做实验,
阅读全文
posted @ 2020-06-14 22:45 kangheng
阅读(233)
评论(0)
推荐(0)
编辑
公告