Torch的离线安装

本地安装Cuda版本的Torch

之前安装了Torch,但是是CPU版本的,对于模型训练而言cpu版本的Torch实在是太慢了,所以开始安装Cuda(GPU)版本的torch。

推荐下载站:上海交通大学镜像

为什么要本地安装Torch

由于现在国内直接安装Torch还是太慢了,主要是国内直连国外的服务器可能还是比较慢的。而且,如果实在服务器上安装Torch,联网实在是一件麻烦的事情。所以本地安装其实更加高效方便,不过在刚开始的时候可能更加麻烦一点。

Torch的必备要求

  1. Nvidia版本支持Cuda的显卡:可以在系统配置里面直接看到,这里不赘述了。
  2. 安装Python或者C++:这里我选择的是Python,毕竟现在做深度学习还是Python居多,其中很多的运算密集型操作也可通过调用Cpp的包完成。
  3. 安装和显卡Cuda版本对应的英伟达Cuda驱动:可以前往英伟达官网下载驱动。
  4. 下载Torch的wheel文件,可以选择上面提供的下载站下载,也可以自行寻找whl文件下载.

Caution: 下载时可以使用vpn,安装时则不能使用vpn,否则可能出现Hostname报错

graph TD; A[确认你的GPU支持cuda]-->B[查看自己的Cuda版本]; B-->C[根据自己的Cuda版本下载相关的英伟达官网cuda包]; C-->D[确认完成Python或者Cpp的下载]; D-->E[根据自己的Python版本和Cuda版本前往下载站下载torch.whl文件]; E-->F[pip或者conda直接安装,此时不能连接vpn.同时需要确保torch.whl的名称符合标准命名方式];

Success

Ooops, it works!

posted @ 2021-08-22 16:56  一只小小郑  阅读(1396)  评论(0编辑  收藏  举报