本地部署ChatGLM3

1 系统信息

OS:Ubuntu22.04.2

显卡:RTX3090Ti-24GB

CUDA :12.2

2 安装Pytorch

pytorch正式版还没有对CUDA12.2的支持,因此这里装的是Preview版本的。这里先建了个conda虚拟环境,然后在虚拟环境中安装了pytorch:

 conda create -n ChatGLM python=3.11.5
$ conda activate ChatGLM
$ pip install --pre torch torchvision torchaudio --index-url https://download.pytorch.org/whl/nightly/cu121

进入python环境,验证安装是否成功:

import torch
torch.cuda.is_available()

返回True则安装成功

3 安装ChatGLM

3.1 从github下载源码

git clone https://github.com/THUDM/ChatGLM3.git

*3.2 从Huggingface 下载模型权重(需梯子)

git clone https://huggingface.co/THUDM/chatglm3-6b.git

替换方法

从镜像网站下载

https://hf-mirror.com/

4 运行

修改路径(模型文件和权重文件都要改):

MODEL_PATH = os.environ.get('MODEL_PATH', '自己的模型权重文件路径')
TOKENIZER_PATH = os.environ.get("TOKENIZER_PATH", MODEL_PATH)

命令行运行:cli_demo.py

网页运行:web_demo_gradio.py

demo.launch(server_name="127.0.0.1", server_port=7870, inbrowser=True, share=False)#将127.0.0.1修改为本机ip,share改为True即可在局域网下使用

 

posted @   IsYuh  阅读(209)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· winform 绘制太阳,地球,月球 运作规律
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
点击右上角即可分享
微信分享提示