[学习笔记]编译sensetime发表的Single View Stereo Matching(SVS)遇到的问题
最近在研究用深度学习预测图像深度信息的方法,一开始用的是2017年CVPR上Godard大神的monodepth,代码在这里。这篇文章介绍了利用双目的consistency训练网络以对单张图像进行深度估计,思路还是蛮有新意的。某天在必应上无意中发现了商汤(sensetime)的Yue Luo同学发表在2018年CVPR上的一篇文章Single View Stereo Matching,代码开源了,因此fork一下clone下来跑一跑,没想到按照readme跑第一步installation就遇到了几个问题,在网上都没有找到问题的解决办法,于是自己花了点时间解决了这些问题,特此记录,以示其他同学。
1.makefile.config缺失问题
原作者给了一个Makefile.config.example,各位同学如果要install的话记得把.example去掉,我们需要的是Makefile.config。
里面的参数是否要取消注释讲的很清楚,我使用了cudnn,因此取消注释USE_CUDNN := 1。我的opencv版本是3.2.0,因此取消注释OPENCV_VERSION := 3。对于CUDA_ARCH,如果你的CUDA版本比较高,建议你删掉compute_20和compute_21这两行。然后就是一些引用库的路径,后面会说到。
2.缺少hdf5.h问题
首先安装hdf5,你需要在官网下载hdf5,然后解压编译安装
$ cd hdf5-1.10.3
$ mkdir build
$ cd build
$ cmake ..
$ sudo make
$ sudo make install
如果遇到问题,我的另一篇文章里介绍了如何解决hdf5的安装问题。
安装好了hdf5之后,需要在Makefile.config里加入链接,以保证可以调用hdf5的库。对于我来说,我需要在这里加
HDF5_DIRS :=/home/yao/Environment/hdf5-1.10.3/hdf5
OpenCV_DIR :=/home/yao/Environment/opencv-3.2.0/build
我顺便加了一个OpenCV的路径,以防需要。同学们把前面的路径改成自己的路径即可。然后将下面的两行
INCLUDE_DIRS := $(PYTHON_INCLUDE) /usr/local/include
LIBRARY_DIRS := $(PYTHON_LIB) /usr/local/lib /usr/lib
改为
INCLUDE_DIRS := $(PYTHON_INCLUDE) /usr/local/include $(HDF5_DIRS)/include $(OpenCV_DIR)/include
LIBRARY_DIRS := $(PYTHON_LIB) /usr/local/lib /usr/lib $(HDF5_DIRS)/lib $(OpenCV_DIR)/lib
3.cudnn版本的问题
make的时候发现了如下的问题
In file included from ./include/caffe/util/device_alternate.hpp:40:0,
from ./include/caffe/common.hpp:19,
from src/caffe/syncedmem.cpp:1:
./include/caffe/util/cudnn.hpp: In function ‘void caffe::cudnn::setConvolutionDesc(cudnnConvolutionStruct**, cudnnTensorDescriptor_t, cudnnFilterDescriptor_t, int, int, int, int)’:
./include/caffe/util/cudnn.hpp:112:3: error: too few arguments to function ‘cudnnStatus_t cudnnSetConvolution2dDescriptor(cudnnConvolutionDescriptor_t, int, int, int, int, int, int, cudnnConvolutionMode_t, cudnnDataType_t)’
CUDNN_CHECK(cudnnSetConvolution2dDescriptor(*conv,
^
In file included from ./include/caffe/util/cudnn.hpp:5:0,
from ./include/caffe/util/device_alternate.hpp:40,
from ./include/caffe/common.hpp:19,
from src/caffe/syncedmem.cpp:1:
/usr/local/cuda/include/cudnn.h:537:27: note: declared here
cudnnStatus_t CUDNNWINAPI cudnnSetConvolution2dDescriptor( cudnnConvolutionDescriptor_t convDesc,
^
Makefile:579: recipe for target '.build_release/src/caffe/syncedmem.o' failed
make: *** [.build_release/src/caffe/syncedmem.o] Error 1
make: *** Waiting for unfinished jobs....
在网上看了一下,是这份代码提供的cudnn版本太老,从别的caffe里比如caffe/include/caffe/util复制cudnn.hpp到SVS/caffe/include/caffe/util/目录下,即可解决。
4.src/caffe/util/util_img.cpp中caffe::BlobToGrayImage函数的问题
接下来的几步的问题都比较隐蔽,要在命令行的编译结果里仔细找才能看到。这一步的问题我在github的issue里也看到了,好几个人都在讨论怎么解决,大家没什么办法,作者似乎也不太清楚怎么回事,我自己研究了一下,解决了这个问题,还是比较有成就感的。
这一步的主要问题如下
src/caffe/util/util_img.cpp: At global scope: src/caffe/util/util_img.cpp:709:33: error: redeclaration of ‘template<class Dtype> cv::Mat caffe::BlobToGrayImage(const caffe::Blob<Dtype>*, int, int, Dtype)’ may not have default arguments [-fpermissive] const Dtype scale = Dtype(1.0)) { ^ Makefile:595: recipe for target '.build_release/src/caffe/util/util_img.o' failed make: *** [.build_release/src/caffe/util/util_img.o] Error 1 make: *** Waiting for unfinished jobs....
我们找到这个cpp,打开移动到709行,发现函数定义如下
template <typename Dtype> cv::Mat BlobToGrayImage(const Blob<Dtype>* blob, const int n, const int c, const Dtype scale = Dtype(1.0))
报的错是对于Dtype(1.0)这个赋值,我们在函数里找一找scale这个变量,发现只用到了一处
v1 *= scale;
按照原定义的1.0,这里相当于什么都没有做,为了解决这个问题,我们直接删掉初始化,将定义改为
template <typename Dtype> cv::Mat BlobToGrayImage(const Blob<Dtype>* blob, const int n, const int c, const Dtype scale)
然后将用到scale的句子屏蔽
//v1 *= scale;
即可解决此问题。
5.不支持compute_20的问题
问题显示如下
NVCC src/caffe/solvers/nesterov_solver.cu
nvcc fatal : Unsupported gpu architecture 'compute_20'
Makefile:608: recipe for target '.build_release/cuda/src/caffe/solvers/nesterov_solver.o' failed
make: *** [.build_release/cuda/src/caffe/solvers/nesterov_solver.o] Error 1
make: *** Waiting for unfinished jobs....
这个是因为你的cuda版本比较新,不支持compute_20,因此需要你删掉compute_20和compute_21这两行,即可解决。
6.gpumat.hpp缺失
这个问题比较少见,网上没有找到答案,甚至这个hpp文件官方都没有适合的,问题如下
In file included from src/caffe/layers/resample_layer.cu:11:0:
./include/thirdparty/gpu/gpu.hpp:52:35: fatal error: opencv2/core/gpumat.hpp: No such file or directory
compilation terminated.
Makefile:608: recipe for target '.build_release/cuda/src/caffe/layers/resample_layer.o' failed
make: *** [.build_release/cuda/src/caffe/layers/resample_layer.o] Error 1
make: *** Waiting for unfinished jobs...
这是没有找到gpu_mat.hpp这个文件,我去OpenCV里找了找,有两个叫这个名字的文件,不过不是/opencv2/core/文件夹下的,试着在gpu.hpp里改一下头文件的引用位置,改成OpenCV里的那两个文件,都会报如下的错误
./include/thirdparty/gpu/gpu.hpp(161): error: identifier "GpuMat" is undefined
说明这两个头文件不是我们需要的,没办法,只能在网上找找了,果然找到了一个github中有,大概看了一眼,貌似是因为OpenCV2中的文件,看来是OpenCV3改动比较大。于是我直接在/usr/local/include/opencv2/core文件夹里面创建了一个gpumat.hpp文件,然后把这个文件的内容复制进去即可,记得加sudo权限。
7.cuda_devptrs.hpp缺失
这个问题跟上面的问题一样,也需要一个新的hpp头文件,我们在网上找到了另一个github,相似的操作,同样的位置直接创建一个cuda_devptrs.hpp文件,然后复制进去。
NVCC src/caffe/layers/resample_layer.cu
In file included from ./include/thirdparty/gpu/gpu.hpp:52:0,
from src/caffe/layers/resample_layer.cu:11:
/usr/local/include/opencv2/core/gpumat.hpp:49:41: fatal error: opencv2/core/cuda_devptrs.hpp: No such file or directory
compilation terminated.
Makefile:608: recipe for target '.build_release/cuda/src/caffe/layers/resample_layer.o' failed
make: *** [.build_release/cuda/src/caffe/layers/resample_layer.o] Error 1
8.vector没有声明std空间
不知道是不是作者粗心,gpu.hpp里调用了vector,却没有在前面加上std::或者在最前面声明using namespace std;结果产生如下错误
./include/thirdparty/gpu/gpu.hpp(432): error: vector is not a template
太多vector了,不可能一个个加,虽然我很不情愿,但我只能在最前面加一个using namespace std;了,希望作者下次用心,也不知道他是怎么调通的。
9.编译boost
有些地方可能需要boost这个库,而较新的代码都是用c++14编译才能不报错,因此我们先在官网下载boost,然后编译
$ cd boost_1_69_0
$ ./bootstrap.sh
$ ./b2 cxxflags="--std=c++14" -j12
$ sudo ./b2 install
生成的库位于/usr/local/lib目录,默认的头文件在/usr/local/include/boost目录。
posted on 2018-12-25 00:18 RichardYao1995 阅读(1132) 评论(0) 编辑 收藏 举报