《动手学深度学习 Pytorch版》 6.3 填充和步幅

6.3.1 填充

虽然我们用的卷积核较小,每次只会丢失几像素,但是如果应用多层连续的卷积层,累积的像素丢失就会很多。解决此问题的方法为填充。

填充后的输出形状将为 (nhkh+ph+1)×(nwkw+pw+1)

import torch
from torch import nn

def comp_conv2d(conv2d, X):
    X = X.reshape((1, 1) + X.shape)  # 批量大小和通道数都是1(此处为元组拼接)
    Y = conv2d(X)
    return Y.reshape(Y.shape[2:])  # 再忽略前两个维度

conv2d = nn.Conv2d(1, 1, kernel_size=3, padding=1)
X = torch.rand(size=(8, 8))
comp_conv2d(conv2d, X).shape  # 如果无填充则是 (6,6)
torch.Size([8, 8])
conv2d = nn.Conv2d(1, 1, kernel_size=(5, 3), padding=(2, 1))  # 也可以填充不同的高度和宽度
comp_conv2d(conv2d, X).shape  # 若不填充则为 (4, 6)
torch.Size([8, 8])

6.3.2 步幅

conv2d = nn.Conv2d(1, 1, kernel_size=3, padding=1, stride=2)  # 步幅为2则宽度高度减半
comp_conv2d(conv2d, X).shape
torch.Size([4, 4])

引入步幅后输出的形状应为 (nhkh+ph+sh)/sh×(nwkw+pw+sw)/sw

conv2d = nn.Conv2d(1, 1, kernel_size=(3, 5), padding=(0, 1), stride=(3, 4))  # 实际实践中很少使用不一致的步幅或填充
comp_conv2d(conv2d, X).shape
torch.Size([2, 2])

练习

(1)对于本节中的最后一个示例,计算其输出形状,以查看它是否于实验结果一致。

(1)(×)=(nhkh+ph+sh)/sh×(nwkw+pw+sw)/sw(2)=(83+0+3)/3×(85+1+4)/4(3)=8/3×8/4(4)=(2×2)


(2)对本节中的实验中,试一试其他填充和步幅的组合。


(3)对于音频信号,步幅为2说明什么?

类似于计组里学的对信号进行采样。


(4)步幅大于1的计算优势是什么?

减少计算量。

posted @   AncilunKiang  阅读(62)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
点击右上角即可分享
微信分享提示