大模型微调新思路:LoRA技术解析

大模型微调新思路:LoRA技术解析
LoRA,全称Low-Rank Adaptation,是一种用于大模型微调的新方法。它通过低秩分解来模拟参数的改变量,从而以极小的参数量实现大模型的间接训练。简单来说,LoRA就是在原模型旁边增加一个旁路,通过低秩分解来模拟参数的更新量。训练时,原模型保持固定,只训练降维矩阵A和升维矩阵B。推理时,可以将BA加到原参数上,从而实现适配下游任务。

LoRA的核心思想是通过低秩分解来模拟参数的改变量。具体来说,它在原模型旁边增加一个旁路,通过先降维再升维的方式来模拟参数的更新量。训练时,原模型保持固定,只训练降维矩阵A和升维矩阵B。推理时,可以将BA加到原参数上,从而实现适配下游任务。这种方法的优点在于,一个中心模型可以服务多个下游任务,节省参数存储量,推理阶段不引入额外计算量,与其他参数高效微调方法正交,可有效组合,训练任务比较稳定,效果好,可插拔,不引入额外的推理延时。

然而,LoRA也有一些缺点。如果将BA加到W上以消除推理延迟,则在一次forward中对不同任务的输入进行批处理是不太直接或者说不太方便的。当然了,如果不考虑推理延迟,则可以不合并权重,通过动态路由来为不同任务的样本选择相应的LoRA。

总的来说,LoRA是一种高效的大模型微调方法,具有很大的应用潜力。

posted on   ExplorerMan  阅读(17)  评论(0编辑  收藏  举报

相关博文:
阅读排行:
· 单线程的Redis速度为什么快?
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 展开说说关于C#中ORM框架的用法!
· SQL Server 2025 AI相关能力初探
· Pantheons:用 TypeScript 打造主流大模型对话的一站式集成库
历史上的今天:
2021-02-26 亿级流量架构之网关设计思路、常见网关对比
2021-02-26 mysql索引优化策略有哪些
2021-02-26 Mysql什么是回表查询和覆盖索引
2021-02-26 在 MongoDB 中使用覆盖索引查询
2021-02-26 又长又细,万字长文带你解读Redisson分布式锁的源码
2019-02-26 在 tornado 中异步无阻塞的执行耗时任务
2019-02-26 【tornado】系列项目(一)之基于领域驱动模型架构设计的京东用户管理后台

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5
点击右上角即可分享
微信分享提示