我的AI之路 —— 从裸机搭建GPU版本的深度学习环境
之前一直在CPU上跑深度学习,由于做的是NLP方向所以也能勉强忍受。最近在做图像的时候,实在是扛不住了...还好领导们的支持买个虚拟机先体验下。由于刚买的机器,环境都得自己摸索,瞎搞过很多次,也走过很多弯路,所以我就记录下从裸机安装深度学习环境的正确过程。(全程root用户哦!)
裸机简介
服务器是阿里云的CentOS7.4,默认的时候选择的CUDA驱动选错了,1.5以上的tensorflow都应该选择CUDA9.0,注意不要太高,也不要太低!TF很挑剔!
先来聊聊裸机里面包含什么有用的东西:
- git:好像是1.18.x的版本,记不清了
- python:2.7
下面就开始安装吧!
第一步,升级Python3
我这边选择的版本是3.6.6,原则就是当前最新最稳定的大版本,以及最高的小版本。如果本机下载,可以直接去这个地址:
https://www.python.org/ftp/python/3.6.6/
如果是服务器下载可以使用命令
wget https://www.python.org/ftp/python/3.6.6/Python-3.6.6.tgz
然后解压缩压缩包:
tar zxvf Python-3.6.6.tgz
进入目录后:
cd Python-3.6.6
先创建python3安装目录:
mkdir /usr/local/python3
开始编译安装
./configure --prefix=/usr/local/python3
make && make install
修改老版本的python执行文件
mv /usr/bin/python /usr/bin/python_old2
新建python3的软连接
ln -s /usr/local/python3/bin/python3 /usr/bin/python
使用命令验证下:
[root@izwz9fnfgk9709s3h9ex47z ~]# python -V
Python 3.6.6
然后不要忘记增加pip3的可执行文件:
ln -s /usr/local/python3/bin/pip3 /usr/bin/pip3
这样就可以通过pip3安装python3的模块了。
[root@izwz9fnfgk9709s3h9ex47z ~]# pip3 -V
pip 18.0 from /usr/local/python3/lib/python3.6/site-packages/pip (python 3.6)
此时python就升级完了。
由于这时修改了python脚本的版本,可能对老系统的脚本有影响,所以需要修改两个脚本——/usr/bin/yum
、/usr/libexec/urlgrabber-ext-down
把对应的文件头从#!/usr/bin/python
修改为#!/usr/bin/python2.7
。
另外,我这里用的是阿里云,python下载很多东西都很快,如果是其他的服务或者物理机,有时候需要临时指定yum源,可以使用下面的命令:
pip3 install xxx -i http://mirrors.aliyun.com/pypi/simple/ --trusted-host mirrors.aliyun.com
参考资料:https://www.cnblogs.com/idotest/p/5442173.html
第二步,升级Git
默认CentOS装的git是1.8版本有点陈旧,可以对它进行重装。
安装之前需要先升级gcc一类的东西,按照下面的脚本过程执行即可:
# 安装gcc相关的东西
yum install curl-devel expat-devel gettext-devel openssl-devel zlib-devel
yum install gcc perl-ExtUtils-MakeMaker
# 这里可以挑一个最新版本下载
wget http://ftp.gnu.org/pub/gnu/libiconv/libiconv-1.15.tar.gz
tar zxvf libiconv-1.15.tar.gz
cd libiconv-1.15
./configure --prefix=/usr/local/libiconv
make && make install
# 卸载之前的git
yum remove git
# 重新下载git
wget https://github.com/git/git/archive/v2.18.0.tar.gz
tar zxvf v2.18.0.tar.gz
cd git-2.18.0
make configure
./configure --prefix=/usr/local/git --with-iconv=/usr/local/libiconv
make all doc
make install install-doc install-html
echo "export PATH=$PATH:/usr/local/git/bin" >> /etc/bashrc
source /etc/bashrc
然后重新验证一下:
[root@izwz9fnfgk9709s3h9ex47z soft]# git --version
git version 2.18.0
我的开发流程是这样,我们自己有git的代码库,我本地写完代码提交到gitlab。然后从阿里云的服务器clone代码,运行。由于里面涉及到大量的图片资源,因此clone的时候有个技巧:
git clone xxxx --depth 1
指定一下clone的深度,不然git会下载每一次的提交历史。如果训练的图片或者模型很多都删除或者替换掉了,就没必要下载了。
参考资料:https://blog.csdn.net/z_dianjun/article/details/50819908
第三步,安装CUDA
我记得在学校的时候写过一篇手把手教你在windows安装cuda6,当时看的人还挺多。这回在linux上安装,感觉更简单了。
首先去官网下载cuda的版本,如果不知道你该安装哪一个版本的CUDA,就先确定你想使用哪一个版本的tensorflow,然后去tensorflow的github里面查看configure.py这个文件:
https://github.com/tensorflow/tensorflow/blob/3379bae787d73d6db67d66a284bd1a076b2cbdba/configure.py
这里面有说明对应的CUDA版本:
_DEFAULT_CUDA_VERSION = '9.0'
_DEFAULT_CUDNN_VERSION = '7'
_DEFAULT_NCCL_VERSION = '2.2'
_DEFAULT_CUDA_COMPUTE_CAPABILITIES = '3.5,7.0'
_DEFAULT_CUDA_PATH = '/usr/local/cuda'
_DEFAULT_CUDA_PATH_LINUX = '/opt/cuda'
_DEFAULT_CUDA_PATH_WIN = ('C:/Program Files/NVIDIA GPU Computing '
'Toolkit/CUDA/v%s' % _DEFAULT_CUDA_VERSION)
_DEFAULT_TENSORRT_PATH_LINUX = '/usr/lib/%s-linux-gnu' % platform.machine()
_TF_OPENCL_VERSION = '1.2'
_DEFAULT_COMPUTECPP_TOOLKIT_PATH = '/usr/local/computecpp'
_DEFAULT_TRISYCL_INCLUDE_DIR = '/usr/local/triSYCL/include'
_SUPPORTED_ANDROID_NDK_VERSIONS = [10, 11, 12, 13, 14, 15]
可以看到这里需要的是9.0,注意9.0就是9.0,别以为9.2更牛逼就安装9.2,到时候一样用不了的(本篇文章当前最新的是9.2版本)。
安装文件的地址在这里:
https://developer.nvidia.com/cuda-90-download-archive
按照我的系统CentOS7,我是这么选的:
也可以直接在服务器上执行下面的命令进行下载:
wget https://developer.nvidia.com/compute/cuda/9.0/Prod/local_installers/cuda-repo-rhel7-9-0-local-9.0.176-1.x86_64-rpm
下载后按照官网的安装指令安装就行了:
sudo rpm -i cuda-repo-rhel7-9-0-local-9.0.176-1.x86_64-rpm
yum clean all
yum install cuda
注意:如果之前你的及其里面装了其他版本的cuda,或者你已经安装了cuda9.2,yum里面已经缓存了9.2的安装文件,那么可以这么做,创建下面的脚本,执行sh rpm_e.sh cuda
移除全部的cuda安装资源,重新输入上面的三条命令安装:
[root@izwz9fnfgk9709s3h9ex47z soft]# cat rpm_e.sh
#/bin/bash
set -x
temp_rpm=$(rpm -qa | grep $1)
for item in $temp_rpm
do
rpm -e $item --nodeps
done
安装完成后,添加环境变量vi /etc/profile
:
export CUDA_HOME=/usr/local/cuda-9.0
export PATH=/usr/local/cuda-9.0/bin${PATH:+:${PATH}}
export LD_LIBRARY_PATH=/usr/local/cuda-9.0/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}
然后执行source /etc/profile
再执行以下nvcc命令验证下:
[root@izwz9fnfgk9709s3h9ex47z bin]# nvcc -V
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2017 NVIDIA Corporation
Built on Fri_Sep__1_21:08:03_CDT_2017
Cuda compilation tools, release 9.0, V9.0.176
此时基本的CUDA就安装完了,如果想要体验下CUDA的程序,也可以编译执行以下samples里面的代码。
第四步,安装cuDNN
由于我们是搞深度学习,因此需要安装这个cuDNN,它是专门针对深度学习的库。
首先登陆这个网址:https://developer.nvidia.com/rdp/cudnn-archive
先要进行注册,邮箱确认,同意配合测试,填一下基本信息,然后就可以下载了。
只要CUDA版本是9.0就行,我这边选择的是cuDNN v7.1。
下载后传到服务器上,执行解压缩:
tar -zxvf cudnn-9.0-linux-x64-v7.1.tgz
然后拷贝对应的文件
sudo cp cuDNN/cuda/include/cudnn.h /usr/local/cuda/include
sudo cp cuDNN/cuda/lib64/* /usr/local/cuda/lib64
修改libcudnn.so
#下面的操作在/usr/local/cuda/lib64/目录下进行
cd /usr/local/cuda/lib64
sudo rm -rf libcudnn.so libcudnn.so.7#删除两个符号链接;
sudo ln -s libcudnn.so.7.0.64 libcudnn.so.7
sudo ln -s libcudnn.so.7 libcudnn.so
这样cuDNN就安装完了。
安装完cuDNN不要忘记重启机器,不然tensorflow可能会识别不到!
参考资料:https://blog.csdn.net/guoyunfei20/article/details/78191599
第五步,安装keras和tensorflow
最后照着官网的安装步骤来就行了:
sudo pip3 install -U --pre pip setuptools wheel
sudo pip3 install -U --pre numpy scipy matplotlib scikit-learn scikit-image
sudo pip3 install -U --pre tensorflow-gpu
# sudo pip3 install -U --pre tensorflow ## CPU版本
sudo pip3 install -U --pre keras
# 如果搞图像,还需要安装cv2
sudo pip3 install -U --pre opencv-python
其他的按照自己需要的来就行了。
然后打开python命令行,import一下,看看有没有错
[root@izwz9fnfgk9709s3h9ex47z soft]# python
Python 3.6.6 (default, Aug 2 2018, 14:32:43)
[GCC 4.8.5 20150623 (Red Hat 4.8.5-28)] on linux
Type "help", "copyright", "credits" or "license" for more information.
>>> import tensorflow as tf
>>> import keras
Using TensorFlow backend.
>>> tf.__version__
'1.10.0-rc0'
>>> keras.__version__
'2.2.1'
>>>
最后启动终极代码
可以看到里面已经有GPU参与的信息了,而且速度上明显感觉有质一般飞跃!爽!
安装资源
如果有不方便下载的,我这里也有所有组件的安装资源,可以去yunpan下载。