Caffe学习系列(二)Caffe代码结构梳理,及相关知识点归纳
前言:
通过检索论文、书籍、博客,继续学习Caffe,千里之行始于足下,继续努力。将自己学到的一些东西记录下来,方便日后的整理。
正文:
1、代码结构梳理
在终端下运行如下命令,可以查看caffe代码结构,我将其梳理了一下:
root@ygh:/home/ygh/caffe# tree -d . ├── build -> .build_release //编译结果存放处,子目录结构与主目录类似 ├── cmake //使用CMake编译时会用到 │ ├── External │ ├── Modules │ └── Templates ├── data //用于存放原始数据及数据获取的脚本sh文件 │ ├── cifar10 │ ├── ilsvrc12 │ └── mnist ├── distribute //编译后生成发布包的位置,用于迁移 │ ├── bin │ └── lib ├── docker //同样为了便于迁移,使用了Docker工具 │ ├── cpu │ └── gpu ├── docs //doxygen工程文件放在这里,可生成Caffe ref_man.pdf │ ├── images │ ├── _layouts │ ├── stylesheets │ └── tutorial │ ├── fig │ └── layers ├── examples //存放Caffe简单例程 │ ├── cifar10 //CIFAR10例程 │ ├── cpp_classification //图像分类例程 │ ├── feature_extraction //特征提取例程 │ ├── finetune_flickr_style //finetune例程 │ ├── finetune_pascal_detection //finetune例程 │ ├── hdf5_classification //使用HDF5数据源的分类例程 │ ├── imagenet //ImageNet例程,使用bvlc_reference_caffenet模型 │ ├── images │ ├── mnist //MNIST手写数字识别例程 │ │ ├── mnist_test_lmdb │ │ └── mnist_train_lmdb │ ├── net_surgery │ ├── pycaffe │ │ └── layers │ ├── siamese │ └── web_demo //一个Web Server + 分类例程 │ └── templates ├── include //Caffe头文件集中存放此目录 │ └── caffe │ ├── layers │ ├── test │ └── util ├── Install-OpenCV │ ├── ArchLinux │ ├── RedHat │ └── Ubuntu │ ├── 2.3 │ └── 2.4 ├── matlab //适用于Matlab做Wrapper,具体可以参考RCNN源码 │ ├── +caffe │ │ ├── imagenet │ │ ├── private │ │ └── +test │ ├── demo │ └── hdf5creation ├── models //存放示例模型 │ ├── bvlc_alexnet //经典的AlexNet │ ├── bvlc_googlenet //GoogLeNet │ ├── bvlc_reference_caffenet //Caffe模型的AlexNet │ ├── bvlc_reference_rcnn_ilsvrc13 //RCNN模型 https:github.com/rbgirshick/rcnn │ └── finetune_flickr_style ├── python //用于python Wrapper │ └── caffe │ ├── imagenet │ ├── proto │ └── test ├── scripts //存放脚本 │ └── travis ├── src //Caffe源码 │ ├── caffe │ │ ├── layers //各个层的具体实现 │ │ ├── proto //proto描述文件,学习数据结构先从这里开始 │ │ ├── solvers │ │ ├── test │ │ │ └── test_data │ │ └── util │ └── gtest └── tools //常用工具源码 └── extra
2、相关知识点
训练网络时,需要由数据读取层(DataLayer)不断地从LMDB读取数据,送入后续卷积、下采样等计算层。
数据读取层声明位于 include/caffe/data_layer.hpp中
数据变换器(DataTransformer)主要提供了对原始输入图像的预处理方法,包括随机切块、随机镜像、幅度缩放、去均值、灰度/色度变换等。声明头文件位于 include/Caffe/data_transformer.hpp中
求解器实现:
Caffe中的求解器有以下几种:
1、随机梯度下降法(Stochastic Gradient Descent,SGD),最常用
2、AdaDelta
3、自适应梯度法(Adaptive Gradient,ADAGRAD)
4、Adam
5、Nesterov加速梯度法(Nesterov's Accelerated Gradient,NAG)
6、RMSprop
solver.prototxt中格式
base_lr:0.01 //基准学习速率为0.01,另外每个Layer会在基准上进行细调
lr_policy:"step" //学习速率衰减策略,step为步进方式,即每进行step次迭代,学习速率更新一次
gamma:0.1 //学习速率衰减常数,每次更新学习速率都是乘上这个固定常数
stepsize:100000 //每10万次迭代,对学习速率进行一次更新
max_iter:350000 //训练总共需要35万次迭代
momentum:0.9 //遗忘因子为0.9