大语言模型量化方法对比:GPTQ、GGUF、AWQ

在过去的一年里,大型语言模型(llm)有了飞速的发展,在本文中,我们将探讨几种(量化)的方式,除此以外,还会介绍分片及不同的保存和压缩策略。

说明:每次加载LLM示例后,建议清除缓存,以防止出现OutOfMemory错误。

  1. del model, tokenizer, pipe
  2. import torch
  3. torch.cuda.empty_cache()

如果在jupyter中无法释放显存,请重启这个jupyter notebook。

模型加载

加载LLM的最直接、最普通的方式是通过🤗Transformers。HuggingFace已经创建了一个套件,我们能够直接使用

  1. pip install git+https://github.com/huggingface/transformers.git
  2. pip install accelerate bitsandbytes xformers

安装完成后,我们可以使用以下管道轻松加载LLM:

  1. from torch import bfloat16
  2. from transformers import pipeline
  3. # Load in your LLM without any compression tricks
  4. pipe = pipeline(
  5. "text-generation",
  6. model="HuggingFaceH4/zephyr-7b-beta",
  7. torch_dtype=bfloat16,
  8. device_map="auto"
  9. )

我们这里使用zephyr-7b-beta作为示例

这种加载LLM的方法通常不会执行任何压缩技巧。我们来做个使用的示例

  1. messages = [
  2. {
  3. "role": "system",
  4. "content": "You are a friendly chatbot.",
  5. },
  6. {
  7. "role": "user",
  8. "content": "Tell me a funny joke about Large Language Models."
  9. },
  10. ]
  11. prompt = pipe.tokenizer.apply_chat_template(
  12. messages,
  13. tokenize=False,
  14. add_generation_prompt=True
  15. )

使用内部提示模板生成的提示是这样构造的:

然后,我们可将提示传递给LLM来生成答案:

https://avoid.overfit.cn/post/47f8871b7144405795301aa0a6bd9a24

posted @ 2023-11-16 10:59  deephub  阅读(693)  评论(0编辑  收藏  举报