池化
将第一层卷积层和最末层权值乘以负一,除最末层的所有偏置量也都乘以负一,这样的话,你把所有最大池化改成最小池化,结果一模一样。说明最大池化和最小池化的解空间是相等的。
用最大池化是前辈们的习惯,你如果硬生生要用最小池化也无妨。
补充:这里我也有说的不是很严谨的地方。最大池化和最小池化解空间一样仅仅针对中心对称的函数,如sigmoid、tanh、linear等等,如果是ReLU等,最小池化甚至会让你的神经网络轻易过拟合甚至无法训练(因为你的网络池化层的输出结果大面积被0占据,偏置量很容易成为了控制输出的主力)。
链接:https://www.zhihu.com/question/325196490/answer/689918265
谢邀。。这个主要是因为像素值为正数决定的,0代表为黑色。采用最小池化很可能全部都是0。
平均池化可以提取背景信息,最大池化可以提取特征纹理。
可认为是一个提取特征的过程。
在一张图像中存在很多噪声和冗余信息,噪声是由相机拍摄过程中由于传感器电路、材料等硬件因素或传输过程中产生的,冗余信息是指跟具体任务无关的内容。
当我们以整张图像输入时,需要将这些噪声、冗余信息去除。我们认为这些冗余信息和噪声不是特征,在神经网络中的卷积和映射过程中,会产生比较低的响应值。只有特征才会在卷积过程中产生大的特征值
,也称为响应值。因此我们可以通过最大池化选择最大的响应值进入下一层,这就达到了提取特征的目的。
同样以sobel
为例,当对一个像素值基本相同的背景进行卷积时,卷积的输出几乎为0,对非轮廓或边缘进行sobel卷积,则输出较小的值,而对一个轮廓边缘进行sobel卷积,则会输出较大的值。
因此神经网络通过多次最大池化,去除了噪声和冗余信息。这也就是为什么神经网络的backbone部分基本全是最大池化,而不是平均池化
,因为平均池化会将这些冗余信息和噪声继续传到下一层。
这段话解释了池化的原理,相信题主看完应该能知道为什么不是选择最小池化
。
以上内容摘选自公众号CV技术指南原创文章《计算机专业术语\名词总结(一)构建计算机视觉的知识体系》。