会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
TABball
博客园
首页
新随笔
联系
订阅
管理
2022年4月6日
Prefix-Tuning: Optimizing Continuous Prompts for Generation
摘要: Motivation 微调实际上是利用大型预训练过的语言模型来执行下游任务的一种方法。但是,它会修改所有的语言模型参数,因此需要为每个任务存储一个完整的副本。 因此,要构建和部署依赖于大型预训练的LM的NLP系统,目前需要为每个任务存储一个修改后的LM参数副本。考虑到目前的lms的大规模,这可能会非
阅读全文
posted @ 2022-04-06 10:52 TABball
阅读(391)
评论(0)
推荐(0)
编辑
公告