大连人工智能计算平台——华为昇腾AI平台——高性能计算HPC的pytorch源码编译报错——USE_CUDA=OFF——编译好的pytorch不支持CUDA的问题解决
如题:
pytorch源码编译报错——USE_CUDA=OFF
在编译pytorch源码的时候发现错误,虽然编译环境中已经安装好CUDA和cudnn,环境变量也都设置好,但是编译好的pytorch包wheel总是在运行torch.cuda.is_available() 显示false,于是从编译源码的过程中进行重新检查,发现在编译的过程中提示:
USE_CUDA=OFF
-----------------------------------------------------------------
解决方法:
原先的CUDA路径为:
/usr/local/cuda-11.4
然后有一个软连接:
/usr/local/cuda =====>>>>>> /usr/local/cuda-11.4
我们将这个软链接删除掉,sudo rm /usr/local/cuda
然后将cuda11.4文件夹改名为:
sudo mv /usr/local/cuda-11.4 /usr/local/cuda
重新编译,显示成功配置,即:
USE_CUDA=ON
==========================================
posted on 2023-08-09 19:33 Angry_Panda 阅读(68) 评论(0) 编辑 收藏 举报
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· winform 绘制太阳,地球,月球 运作规律
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· AI 智能体引爆开源社区「GitHub 热点速览」
· 写一个简单的SQL生成工具
· Manus的开源复刻OpenManus初探
2021-08-09 在单机条件下,MPI4PY与纯Python多进程代码来比较是否有性能优势???
2020-08-09 RTX显卡 运行TensorFlow=1.14.0 代码 报错 Could not create cudnn handle: CUDNN_STATUS_INTERNAL_ERROR