2019年12月31日
摘要: Pooling 下采样 upsample 上采样 ReLU 1、Pooling 平均/最大池化 2、upsample 上采样 扩大想要的倍数 3、ReLU ReLU层会将图片中负的区域给去掉,在下面的图片中,黑色为负值,白色为正值。 第二种是层的方式,新建一个类,然后通过(x)调用方法。 阅读全文
posted @ 2019-12-31 15:27 Luaser 阅读(622) 评论(0) 推荐(0) 编辑
摘要: 1、全连接层网络的参数太多 通过运用局部相关性和权值共享的思想,我们成功把网络的一层参数量从‖𝐼‖ ∗ ‖𝐽‖减少到 𝑘 ∗ 𝑘(准确地说,是在单输入通道,单卷积核的条件下)。这种局部连接、共享权值的网络就是卷积神经网络。 2、局部相关性 在全连接层中,每一个输出节点都会与所有的输入节点相连 阅读全文
posted @ 2019-12-31 15:26 Luaser 阅读(494) 评论(0) 推荐(0) 编辑