摘要: Don’t Stop Pretraining: Adapt Language Models to Domains and Tasks 这篇文章研究nlp 的pretrain模型用任务相关的数据进一步预训练效果会更好。结论比较符合直觉,甚至感觉不用研究都能得出这个结论。方法上作者用robert做实验, 阅读全文
posted @ 2020-06-14 22:45 kangheng 阅读(233) 评论(0) 推荐(0) 编辑