摘要: 大模型高效微调详解-从Adpter、PrefixTuning到LoRA 最新版本,详见我的知乎文章:https://zhuanlan.zhihu.com/p/696057719 一、背景 目前NLP主流范式是在大量通用数据上进行预训练语言模型训练,然后再针对特定下游任务进行微调,达到领域适应(迁移学习)的目的。 指令微调是预训练语言模型微调的主流范式 其目的是尽量让下游 阅读全文
posted @ 2024-05-06 23:40 LeonYi 阅读(1763) 评论(0) 推荐(1) 编辑