随笔 - 204,  文章 - 0,  评论 - 19,  阅读 - 49万

背景

利用微调的方法对大模型进行微调。目前Lora是高效微调的方法之一。这里记录一下微调的方法和一些博客。

微调方法

Lora的方法是在模型参数外套一个壳,在论文中,作者是对注意力权重Q(K或者V)进行微调。当然也可以对其他网络进行微调例如,MLP(多层感知机)、LayerNorm层微调。
Huggingface给出了一个详细的微调方法:Lora微调mt0模型

参考

科学空间:配置不同的学习率,LoRA还能再涨一点?

posted on   蔚蓝色の天空  阅读(74)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

点击右上角即可分享
微信分享提示