ChatGLM2 部署全过程每一步超详细
打开autodl,创建实例A100-PCIE-40GB * 1卡使用miniconda镜像。
方法一:从huggingface下载
这个步骤不稳定我们换种下载方式
apt-get update
apt install git-lfs
git lfs install
git clone https://huggingface.co/THUDM/chatglm2-6b
方法二:去清华云下载模型
这个链接只能下载所有的模型,包括chatglm和visualglm,我还没有找到只下载chatglm2的连接。
git clone https://github.com/chenyifanthu/THU-Cloud-Downloader.git
cd THU-Cloud-Downloader
pip install argparse requests tqdm
python main.py \
--link https://cloud.tsinghua.edu.cn/d/674208019e314311ab5c/\
--save ../autodl-tmp
这个下载过程要花半个小时,可以开个新的终端下载这个库并安装依赖
git clone https://github.com/THUDM/ChatGLM2-6B
cd ChatGLM2-6B
pip install -r requirements.txt
最后都下载好了,看哪个盘比较充裕就整合起来放在哪个盘。我放在了系统盘。
source /etc/network_turbo
GIT_LFS_SKIP_SMUDGE=1 git clone https://huggingface.co/THUDM/chatglm2-6b
mv model/* chatglm2-6b/
我们来测试一下:
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("../chatglm2-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("../chatglm2-6b", trust_remote_code=True).half().cuda()
model = model.eval()
response, history = model.chat(tokenizer, "你好", history=[])
print(response)
成功啦!下一步是微调!
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)