神经网络- filter滤波器size的选择与规律

记录一下filter,也就是用来提取要识别object边缘信息的过滤器的一些规律以及经验:

首先, 大部分卷积神经网络滤波器都会采用逐层递增(1⇒ 3 ⇒ 5 ⇒ 7)的方式。其次,每经过一次池化层,卷积层过滤器的深度都会乘以 2。

提一个知识点,也就是权值共享,每当filter扫过feature map的时候,扫出来的矩阵的参数,在同一个卷积核kenal中, 实现参数共享,参数共享的好处是可以减轻过拟合,和降低计算量。

 

2018/10/12继续总结:
卷积核的大小,往往根据需要训练样本的形状,在整个图片中所占的位置比重,来进行调整,非常看好可变形卷积的发展。

 

posted @ 2018-08-21 00:03  InsistPy  阅读(3128)  评论(0编辑  收藏  举报
隐藏