摘要: 谷歌 Inception 网络简介( Inception network motivation) 构建卷积层时,你要决定过滤器的大小究竟是 1×1, 3×3 还是 5×5,或者要不要添加池化层。而 Inception 网络的作用就是代替你来决定,虽然网络架构因此变得更加复杂,但网络表现却非常好。 例 阅读全文
posted @ 2018-11-06 21:49 刘-皇叔 阅读(2224) 评论(0) 推荐(0) 编辑
摘要: 网络中的网络以及 1×1 卷积( Network in Network and 1×1 convolutions) 过滤器为 1×1,这里是数字 2,输入一张 6×6×1 的图片,然后对它做卷积,起过滤器大小为 1×1×1,结果相当于把这个图片乘以数字 2,所以前三个单元格分别是 2、 4、 6 等 阅读全文
posted @ 2018-11-06 20:51 刘-皇叔 阅读(538) 评论(0) 推荐(0) 编辑
摘要: 残差网络为什么有用?( Why ResNets work?) 一个网络深度越深,它在训练集上训练的效率就会有所减弱,这也是有时候我们不希望加深网络的原因。而事实并非如此,至少在训练 ResNets网络时,并非完全如此,举个例子: 设有一个大型神经网络,其输入为X,输出激活值${a^{[l]}}$ 。 阅读全文
posted @ 2018-11-06 20:45 刘-皇叔 阅读(8177) 评论(0) 推荐(1) 编辑
摘要: 残差网络(Residual Networks (ResNets)) 非常非常深的神经网络是很难训练的,因为存在梯度消失和梯度爆炸问题。 跳跃连接( Skip connection),它可以从某一层网络层获取激活,然后迅速反馈给另外一层,甚至是神经网络的更深层。我们可以利用跳跃连接构建能够训练深度网络 阅读全文
posted @ 2018-11-06 20:38 刘-皇叔 阅读(669) 评论(0) 推荐(0) 编辑
摘要: 经典网络(Classic networks) LeNet-5 假设你有一张 32×32×1 的图片, LeNet-5 可以识别图中的手写数字,比如像这样手写数字 7。 LeNet-5 是针对灰度图片训练的,所以图片的大小只有 32×32×1。 使用 6 个 5×5的过滤器,步幅为 1。由于使用了 6 阅读全文
posted @ 2018-11-06 20:33 刘-皇叔 阅读(433) 评论(0) 推荐(0) 编辑