22-2:卷积神经网络-池化

1:池化层

 

 

(1)Pooling(类似于downsampling)

[注]leNet-5卷积神经网络中的Subsampling是向下采样中的隔行采样。而AlexNet之后的卷积神经网络则开始采用Max pooling或者是Avg sampling采样。

(1.1)Max pooling最大采样

 

 (1.2)Avg pooling平均采样

 

 

 

 【注】pytorch中提供了两种采样方式。nn,MaxPool2d(pa1,stride=)参数1表示移动窗口的大小(x*x),stride表示步长。 

 (2)upsampling向上采样

 

 

 

 [注]之所以pytorch提供向上采样的函数,是因为python提供的主要针对numpy,其为了适应自己的tensor类型数据,故提供了向上采样的实现。

【注】1.0版本之前对向上采样的提供使用的是:F.upsamplin()参数和1.0及以上F.interpolate中的参数相同。

【注】F.interpolate(pa1,scale_factor=,mode=)pa1表示为上一层的输出,scale_factor表示扩大的倍数,mode表示扩大所使用的差值(其值可以为:'nearest','bi....','fri....')。

 (3)ReLU激活函数:进行矫正

 

 pytorch中两种风格的使用:1:layer=nn.ReLU(inplace=true)然后layer(x)。2:F.relu(x)

 

 [注]ReLu函数可以帮助过滤掉一些负数值,过滤之后的最小值为0.

[注]inplace=true的意思是进行原地操作,可以节省运算内存。

详细解释可以参考:https://www.jianshu.com/p/8385aa74e2de

posted @ 2021-08-04 20:33  收购阿里巴巴  阅读(64)  评论(0)    收藏  举报