背景

利用微调的方法对大模型进行微调。目前Lora是高效微调的方法之一。这里记录一下微调的方法和一些博客。

微调方法

Lora的方法是在模型参数外套一个壳,在论文中,作者是对注意力权重Q(K或者V)进行微调。当然也可以对其他网络进行微调例如,MLP(多层感知机)、LayerNorm层微调。
Huggingface给出了一个详细的微调方法:Lora微调mt0模型

参考

科学空间:配置不同的学习率,LoRA还能再涨一点?

posted on 2024-02-28 21:37  蔚蓝色の天空  阅读(23)  评论(0编辑  收藏  举报