CV3——学习笔记-实战项目(上):如何搭建和训练一个深度学习网络

http://www.mooc.ai/course/353/learn?lessonid=2289&groupId=0#lesson/2289

1、AlexNet, VGGNet, GoogleNet, ResNet

https://adeshpande3.github.io/adeshpande3.github.io/The-9-Deep-Learning-Papers-You-Need-To-Know-About.html

1.1 AlexNet:

图像输入224*224*3。11*11滤波器。2个通道,用于硬件实现。其中一个通道是5*5的。

1.2 VGGNet

很多变体。VGG16/19。更少参数。

feature map的尺寸不断减小,但 是个数增多。因此可以说空间维 度减少,但是深度增加。

1.3 GoogleNet

更加复杂、更深 超过100层。空间上横向扩展代替纵向加深。

去掉全连接层,少了很多参数。

1*1卷积层,降维用。

 1.4 ResNet

精度超过人类。

学习的是期望的输出与输入之间的残差。

引入残差后的映射对输出的变化更敏感。

输出变化对权重的调整作用更大,所以效果更好。残差的思想都是去掉 相同的主体部分,从而突出微小的变化。

2、训练技巧,防止过拟合

2.1 数据增强(Data augmentation):

水平翻转, 随机裁剪和平移变换,颜色、光照变换。适应不同条件。

2.2 Dropout

把一些层的输出丢掉,随机不激活。

在训练阶段中,将假设的投影作为修改的激活函数a(h), D是伯努利分布变量:https://yq.aliyun.com/articles/68901

 

2.3 其他有助于训练的手段:

• 1.L1,L2正则化

• 2.Batch Normalization

每次进行SGD的时候,在卷积之后(Wx+b)之后进行归一化,将输出变成均值为0,方差接近1。按照batch,每一维度减去自身均值, 再除以自身标准差。

优点:

1,使用更高的学习率

2,移除或者使用较低的dropout

3,降低L2权重衰减系数

3、caffe

http://caffe.berkeleyvision.org/tutorial/

https://nbviewer.jupyter.org/github/BVLC/caffe/blob/master/examples/00-classification.ipynb

 

posted @ 2019-08-17 02:30  ostartech  阅读(683)  评论(0编辑  收藏  举报