OnMyWay321

  博客园 :: 首页 :: 博问 :: 闪存 :: 新随笔 :: 联系 :: 订阅 订阅 :: 管理 ::

CNN的网络结构

最经使用CNN做regression,怎么确定网络的结构确实太头痛了,尽管已经有现有的论文里面已经又很多mode可以参考,例如AlexNet,VGGNet等等,但是和还是很难确定出一个最好的model,最近重新看Stanford的CNN的课程,发现其实已经有一部份已经讲了这个,故简单写写mark一下

1.CNN的基本结构

1.Convolutional layer : 原理很简单,就是图像处理中的filter
2.non-linear Layer: Relu(常用)、sigmoid 
3.Pooling layer : 一个downsampling 的过程
4.Normalization Layer : 现在已经很少用了,因为加入这个效果很小,在Alexnet使用过
5.Fully-Connected Layer

2.Tips

1. zero-padding 的作用

 在卷积之前进行zero-padding,利用stride=1,padding_size = (filter_size - 1)/2,则卷积的过程不会改变image的大小,
 并只由Pooling layer控制,这样就不用考虑图像的大小了,其次,padding 使得边缘信息不会丢失地太快

2.layer pattern

INPUT -> [[CONV -> RELU]*N -> POOL?]*M -> [FC -> RELU]*K -> FC
“*N”:  重复N次layer [CONV -> RELU]
“?”:  是否有该layer POOL
“*M”:  重复M次layer[CONV -> RELU]*N -> POOL?]
“*K”:  重复K次layer [FC -> RELU]

[CONV -> RELU]*N 可以增大 receptive field ,例如[CONV3 -> RELU]*3与[CONV7->RELU]*1的recoptive field 都是 7*7 ,
但是多次非线性(RELU)使得模型更expressive,而且参数较[CONV7->RELU]*1少,缺点就是memory消耗

3.Layer Sizing Patterns

1.input layer: 通常input image都为2的n次方, 32 (CIFAR-10),224 (AlexNet)
2.conv layers: 使用小的filter(3*3,5*5),通常在第一个conv layer才用大一点的filter,
                例如AlexNet采用了(11*11)的filter_size,取stride =1,在实际中通常work better,并且与zero-padding结合,使得卷积不改变图片大小
3.pool layer: 通常取max-pooling (size=2*2,stride =2)

4.model reference

1.lenet
2.AlexNet
3.VGGNet [paper] [code]
4.GoogLeNet(ILSVRC 2014)paper

posted on 2015-12-19 21:34  OnMyWay321  阅读(262)  评论(0编辑  收藏  举报