摘要: https://pytorch.org/docs/stable/nn.html 1)卷积层 class torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, 阅读全文
posted @ 2019-04-28 15:58 慢行厚积 阅读(26478) 评论(0) 推荐(4) 编辑
摘要: 1. 先导入使用的包,并声明可用的网络和预训练好的模型 2. 定义要使用到的1*1和3*3的卷积层 注意:这里bias设置为False,原因是: 下面使用了Batch Normalization,而其对隐藏层 有去均值的操作,所以这里的常数项 可以消去 因为Batch Normalization有一 阅读全文
posted @ 2019-04-28 15:57 慢行厚积 阅读(4376) 评论(0) 推荐(0) 编辑
摘要: 输入的标准化处理是对图片等输入信息进行标准化处理,使得所有输入的均值为0,方差为1 而Batch Normalization的目的是使各隐藏层输入的均值和方差为任意值 Batch Norm经常使用在mini-batch上,这也是其名称的由来 Batch Normalization是对下面隐藏层进行激 阅读全文
posted @ 2019-04-28 12:08 慢行厚积 阅读(2256) 评论(0) 推荐(0) 编辑