安装 Nvidia 显卡驱动
1. sudo ubuntu-drivers autoinstall
2. sudo reboot
3. 检查是否安装成功 nvidia-smi
4. 安装最新显卡驱动(由于一般使用较新的软件因此必需)
http://www.nvidia.com/Download/index.aspx 下载对应的驱动
开始搜索 software & Updayes 转到附加驱动选择非英伟达显驱应用重启,需连网
重启后输入: sudo sh NVIDIA..run
前几个按照默认选项,直到出现一个缺少某些库的提示这时需要install&override
sudo reboot
输入 nvidia-smi 可看到最高兼容到的 cuda 版本。
CUDA安装
https://developer.nvidia.com/cuda-toolkit-archive
https://developer.nvidia.com/rdp/cudnn-download
1. 在上面链接下载 CUDA 目前版本10.0 并下载配套CUDNN
下载CUDNN需要登入,两个加在一起2GB左右
2. sudo sh cuda..run # 安装Cuda
如果有问题可能是文件出错了再下载一遍
注意安装时去掉 Driver
3. sudo gedit ~/.bashrc 加入下面两行
export PATH=/usr/local/cuda-10.0/bin${PATH:+:$PATH}
LD_LIBRARY_PATH=/usr/local/cuda-10.0/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}
4. reboot 使用 nvcc -V 测试并查看版本
CUDNN安装
1. cp filename.xxx filename.tgz
2. tar -zxvf filename.tgz
3. sudo cp cuda/include/cudnn.h /usr/local/cuda/include
4. sudo cp cuda/lib64/libcudnn* /usr/local/cuda/lib64
5. sudo chmod a+r /usr/local/cuda/include/cudnn.h /usr/local/cuda/lib64/libcudnn*
查看版本 cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2
CUDNN升级
1. 查看当前CUDNN版本 cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2
2. 下载所需CUDNN版本 https://developer.nvidia.com/rdp/cudnn-download
3. 删除旧版本
sudo rm -rf /usr/local/cuda/include/cudnn.h
sudo rm -rf /usr/local/cuda/lib64/libcudnn*
4. 重复上面CUDNN安装过程
PyTorch安装
1. sudo apt-get install python3-pip
2. https://pytorch.org/get-started/locally/ 选择对应版本安装
3. pip3 install numpy
4. python3
import torch
x = torch.tensor([1.0])
x = x.cuda()
print(x) # 查看cuda库是否可用
from torch.backends import cudnn
print(cudnn.is_acceptable(x)) # 查看cudnn库是否可用
5. 如果提示驱动版本太老则去官网下载
http://www.nvidia.com/Download/index.aspx
6. 如果下载慢,可以
pip3 install torch===1.2.0 torchvision===0.4.0 -i https://pypi.douban.com/simple
7. 同时,推荐安装ONNX网络交换协议工具 pip3 install onnx
8. 推荐安装Netron网络可视化工具 pip3 install netron
TensorFlow安装
1. 在 https://blog.csdn.net/flana/article/details/104768188 查看支持版本
2. 下载所支持版本, 例如 pip3 install tensorflow-gpu==1.14.0 -i https://pypi.douban.com/simple
3. 使用如下代码测试GPU可用性
import tensorflow as tf
print(tf.test.is_gpu_available())
TensorRT安装
1. 在 https://docs.nvidia.com/deeplearning/tensorrt/archives/index.html 选择符合当前CUDA的版本
2. 这里使用 Tar File Installation 在 https://developer.nvidia.com/nvidia-tensorrt-7x-download 下载对应版本
3. 跟着官网教程走 https://docs.nvidia.com/deeplearning/tensorrt/install-guide/index.html#installing-tar
4. 使用教程 https://docs.nvidia.com/deeplearning/tensorrt/api/python_api/index.html
CMAKE源码安装
1. https://cmake.org/download/ 下载tar.gz源码文件
2. tar -zxvf xxx.tar.gz
3. ./bootstrap
如果提示需要OpenSSL错误就使用如下命令
sudo apt-get install libssl-dev
4. make -j4
5. sudo make install
6. cmake --version 查看版本,需要重新打开终端
由于ONNXRUNTIME编译需要新版本CMAKE
6. 如需卸载 make uninstall
ONNX-GPU源码安装
1. git clone --recursive https://github.com/microsoft/onnxruntime
2. chmod 777 build.sh
3. ./build.sh \
--use_cuda \
--cuda_version=10.0 \
--cuda_home=/usr/local/cuda \
--cudnn_home=/usr/local/cuda \
--use_tensorrt --tensorrt_home=$HOME/TensorRT-7.0.0.11 \
--build_shared_lib --enable_pybind \
--build_wheel --parallel
4. 转到编译出来的位置找到dist中的whl使用 pip3 xxx.whl install 安装