摘要: NLP目前广泛使用预训练+fine-tuning的套路,而不同任务上做fine-tuning会得到不同的参数集合,在实际应用中就需要存放不同版本的weights,比如使用BERT在四个任务上做fine-tuning,就需要存放4个BERT weights,空间开销非常大,降低可扩展性。 已有解决fi 阅读全文
posted @ 2021-11-07 23:02 0xAC 阅读(619) 评论(0) 推荐(0) 编辑