LLaMA

 

近期Meta的羊驼模型(LLaMA)持续刷屏,杨立昆疯狂转发,在GPT4秀肌肉之前着实吸引了不少科研人员的眼球,开源的真香。

然而LLaMA模型并没有进行指令微调,这不斯坦福马上公布了
Alpaca模型,该模型是由Meta的LLaMA 7B利用52k的指令微调出来的,据说性能约等于GPT-3.5。

该模型目前没有开源,原因似乎是因为huggingface还没有正式支持LLaMA模型。有条件的可以自己复现一下他们的工作。

看了下他们的blog,原理大概如下:

 

 

  1. 修改了self-instruct的框架,通过175个人工种子指令,最终生成了5.2万个,成本比原始的self-instruct要低,大概是500美元。
  2. 通过这5.2万个样本的指令数据集在LLaMA上进行微调。

原始的Self-instruct框架如下:

 

 

虽然说LLaMA最小的模型有7B,但是目前有很多方法可以减少其资源使用,比如llama.cpp(),号称可以树莓派上进行推理。还有pyllama(),只用4G的GPU就可以推理。注意只是推理,训练肯定使用的资源更多,但是7B的模型号称有GPT-3.5的效果,不免让人想试一下。

下载LLaMA模型

想要训练,首先得把LLaMA-7B的模型给下载下来,总结了几种方案如下:

1. 伸手党

关注同名公众号,然后回复“llama”,即可得到百度网盘的下载链接。

2. 通过pyllama下载

  1. 安装pyllama, pip install pyllama -U
  2. 下载7B的模型, python -m llama.download --model_size 7B
  3. 当然你也可以下载更大的模型,有7B,13B,30B,65B共计4种。

3. 通过ipfs下载

这个应该是最早泄漏的LLaMA模型,地址为 

    1. 首先安装ipfs客户端,最好用带界面的。
    2. 然后7B模型的index为:QmbvdJ7KgvZiyaqHw5QtQxRtUd7pCAdkWWbzuvyKusLGTw

 

posted @ 2024-01-29 10:08  沧海一滴  阅读(10)  评论(0编辑  收藏  举报