2020年4月7日

nn.ConvTranspose2d的参数output_padding的作用

摘要: 使用前提:stride > 1 same卷积操作 是通过padding使得卷积之后输出的特征图大小保持不变(相对于输入特征图),不代表得到的输出特征图的大小与输入特征图的大小完全相同, 而是他们之间的比例保持为 输入特征图大小/输出特征图大小 = stride 举例: 比如输入特征图为6*6,str 阅读全文

posted @ 2020-04-07 20:30 cltt 阅读(515) 评论(0) 推荐(0) 编辑

CNN 逆卷积(fractionally-strided convolutions)

摘要: 1.首先先定义进行卷积的参数: 输入特征图为高宽一样的Hin*Hi大小的x 卷积核大小kernel_size 步长stride padding填充数(填充0) 输出特征图为Hout*Hout大小的y 计算式子为: Hout = floor( [Hin + 2*padding - kernel_siz 阅读全文

posted @ 2020-04-07 20:22 cltt 阅读(982) 评论(0) 推荐(0) 编辑

梯度消失 梯度爆炸

摘要: 梯度消失问题和梯度爆炸问题一般随着网络层数的增加会变得越来越明显。 其实梯度爆炸和梯度消失问题都是因为网络太深,网络权值更新不稳定造成的,本质上是因为梯度反向传播中的连乘效应。对于更普遍的梯度消失问题,可以考虑用ReLU激活函数取代sigmoid激活函数。另外,LSTM的结构设计也可以改善RNN中的 阅读全文

posted @ 2020-04-07 14:21 cltt 阅读(257) 评论(0) 推荐(0) 编辑

导航