大连人工智能计算平台——华为昇腾AI平台——高性能计算HPC的pytorch源码编译报错——USE_CUDA=OFF——编译好的pytorch不支持CUDA的问题解决

 

如题:

pytorch源码编译报错——USE_CUDA=OFF

 

 

在编译pytorch源码的时候发现错误,虽然编译环境中已经安装好CUDA和cudnn,环境变量也都设置好,但是编译好的pytorch包wheel总是在运行torch.cuda.is_available() 显示false,于是从编译源码的过程中进行重新检查,发现在编译的过程中提示:

USE_CUDA=OFF

 

 

-----------------------------------------------------------------

 

解决方法:

原先的CUDA路径为:

/usr/local/cuda-11.4

然后有一个软连接:

/usr/local/cuda  =====>>>>>>    /usr/local/cuda-11.4

 

我们将这个软链接删除掉,sudo rm /usr/local/cuda

然后将cuda11.4文件夹改名为:

sudo mv /usr/local/cuda-11.4   /usr/local/cuda

 

 

重新编译,显示成功配置,即:

USE_CUDA=ON

 

 

==========================================

 

posted on   Angry_Panda  阅读(68)  评论(0编辑  收藏  举报

相关博文:
阅读排行:
· winform 绘制太阳,地球,月球 运作规律
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· AI 智能体引爆开源社区「GitHub 热点速览」
· 写一个简单的SQL生成工具
· Manus的开源复刻OpenManus初探
历史上的今天:
2021-08-09 在单机条件下,MPI4PY与纯Python多进程代码来比较是否有性能优势???
2020-08-09 RTX显卡 运行TensorFlow=1.14.0 代码 报错 Could not create cudnn handle: CUDNN_STATUS_INTERNAL_ERROR

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

点击右上角即可分享
微信分享提示