ChatGLM-6B落地实践——Cpu模式

1、安装Python

  • 下载地址:https://www.python.org/downloads/release/python-3106
  • 记得要勾选path
  • 安装完成后,命令行里输入Python -V,如果返回Python 3.10.6那就是成功安装了
  • 命令行里输入 python -m pip install --upgrade pip安装升级pip到最新版。

2、安装gcc 与 openmp

  如果需要在 cpu 上运行量化后的模型,还需要安装 gcc 与 openmp。多数 Linux 发行版默认已安装。对于 Windows 可在安装TMD-GCC时勾选 openmp。 Windows 测试环境 gcc 版本为 TDM-GCC 10.3.0, Linux 为 gcc 11.3.0。

  TMD-GCC下载地址:https://jmeubank.github.io/tdm-gcc/

点击(Read more...)  选择下载

 勾选openmp

3、下载ChatGLM-6B与安装依赖

下载源码:git clone https://github.com/THUDM/ChatGLM-6B 

cd  ChatGLM-6B  

使用 pip 安装依赖:pip install -r requirements.txt,其中 transformers 库版本推荐为 4.27.1,但理论上不低于 4.23.1 即可。

4、下载模型

还在刚才 ChatGLM-6B 目录下,在资源管理器,地址栏里敲CMD,敲回车,启动命令提示行窗口,输入以下命令:

git clone https://huggingface.co/THUDM/chatglm-6b

这个下载内容有十几个GB,不要关闭CMD窗口。

如果你从 Hugging Face Hub 上下载 checkpoint 的速度较慢,可以只下载模型实现:

# 下载模型实现
GIT_LFS_SKIP_SMUDGE=1 git clone https://huggingface.co/THUDM/chatglm-6b
然后从https://cloud.tsinghua.edu.cn/d/fb9f16d6dc8f482596c2/ 手动下载模型参数文件,并将下载的文件替换到刚才新建的chatglm-6b 文件夹内。

5、修改为 CPU 运行 ChatGLM-6B

到ChatGLM-6B目录下,复制一份web_demo.py文件,重名为web.py。

修改5,6行为:

tokenizer = AutoTokenizer.from_pretrained("chatglm-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("chatglm-6b-int4",trust_remote_code=True).float()

在ChatGLM-6B目录下打开CMD,执行python web.py.

 UI:

 

 

 

 

 

posted @ 2023-07-10 11:23  TimeSay  阅读(769)  评论(0编辑  收藏  举报