A卡在ubuntu下部署stable-diffusion-webui
因为自己之前为了装黑苹果把1080ti卖了买了6800XT,在现在这个玩AI的时代后悔莫及,先尝试在mac m1下安装了stable-diffusion-webui,功能基本上都能用,就是速度太慢。
后来想了想还是装了ubuntu,组成win+mac+ubuntu的三系统
1. 安装ubuntu
安装ubuntu基本都有教程,使用UEFI安装好之后在启动器上配置下ubuntu的启动位置,不然启动系统后看不到ubuntu系统
2. 安装显卡驱动和rocm
安装stable-diffusion-webui之前需要安装AMD的驱动和rocm,主要参考:
安装过程有点慢,我晚上挂机安装
3. 安装pyTorch
https://pytorch.org/get-started/locally/ 安装pyTorch,选择rocm的方式
安装完检查下安装是否正常
进入python
python3
在python中输入,
import torch
torch.cuda.is_available()
如果返回True,说明GPU有官方支持,直接exit()退出python
4. 安装stable-diffusion-webui
参考官方文档或者https://www.bilibili.com/read/cv22056432 进行安装
然后正常安装stable-diffusion-webui
需要注意
打开webui-user.sh文件进行编辑,找到export COMMANDLINE_ARGS这
一行,在后面写上"--precision full --no-half --skip-torch-cuda-test"
这个不同显卡型号不一样,6800XT是可以不加--precision full --no-half
,其他型号可以先加上正常启动后然后去掉看下
启动时遇到:
MIOpen(HIP): Warning [BuildHip] /tmp/comgr-5b498c/input/naive_conv.cpp:39:10: fatal error: 'limits' file not found
#include <limits> // std::numeric_limits
^~~~~~~~
1 error generated when compiling for gfx1030.
terminate called after throwing an instance of 'miopen::Exception'
可以参考
https://github.com/RadeonOpenCompute/ROCm/issues/1889
sudo apt install libstdc++-12-dev
5.运行时检查是否用的是GPU
rocm-smi看下是不是使用的是GPU,第一次装没有装好rocm直接用的是CPU,巨慢无比
======================= ROCm System Management Interface =======================
================================= Concise Info =================================
GPU Temp (DieEdge) AvgPwr SCLK MCLK Fan Perf PwrCap VRAM% GPU%
0 66.0c 269.0W 2325Mhz 1000Mhz 54.12% auto 255.0W 71% 99%
实测下来,512x512 放大2倍,mac需要10min,而6800XT只需要1min,速度提升很大,比较满意
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 周边上新:园子的第一款马克杯温暖上架
· 分享 3 个 .NET 开源的文件压缩处理库,助力快速实现文件压缩解压功能!
· Ollama——大语言模型本地部署的极速利器
· 使用C#创建一个MCP客户端
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!