会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
zhuango
博客园
首页
新随笔
联系
订阅
管理
2021年11月7日
prompt-tuning paper reading
摘要: NLP目前广泛使用预训练+fine-tuning的套路,而不同任务上做fine-tuning会得到不同的参数集合,在实际应用中就需要存放不同版本的weights,比如使用BERT在四个任务上做fine-tuning,就需要存放4个BERT weights,空间开销非常大,降低可扩展性。 已有解决fi
阅读全文
posted @ 2021-11-07 23:02 0xAC
阅读(619)
评论(0)
推荐(0)
编辑
公告