2017年5月30日

1*1卷积核在GoogleLeNet中的作用

摘要: 1. 实现跨通道的交互和信息整合 1×1的卷积层(可能)引起人们的重视是在NIN的结构中,论文中林敏师兄的想法是利用MLP代替传统的线性卷积核,从而提高网络的表达能力。文中同时利用了跨通道pooling的角度解释,认为文中提出的MLP其实等价于在传统卷积核后面接cccp层,从而实现多个feature 阅读全文

posted @ 2017-05-30 17:27 alexanderkun 阅读(839) 评论(0) 推荐(0) 编辑

Network in Network 个人理解

摘要: 关键点是1*1的卷积是怎么用的,也就是MLP卷积。看如下的数据就可以理解了 输入为224*224*3的图像,第一层卷积为11*11*3*96(也就是96个11*11*3的卷积核,另外还有步长),卷积完后是54*54*96的数据,然后用1*1*96的卷积核进行卷积,得出54*54*96的数据,再利用1 阅读全文

posted @ 2017-05-30 16:17 alexanderkun 阅读(387) 评论(0) 推荐(0) 编辑

Network in Network 2

摘要: 《Network in Network》论文笔记 1.综述 这篇文章有两个很重要的观点: 1×1卷积的使用 文中提出使用mlpconv网络层替代传统的convolution层。mlp层实际上是卷积加传统的mlp(多层感知器),因为convolution是线性的,而mlp是非线性的,后者能够得到更高的 阅读全文

posted @ 2017-05-30 16:07 alexanderkun 阅读(432) 评论(0) 推荐(0) 编辑

Network in Network

摘要: 一、相关理论 本篇博文主要讲解2014年ICLR的一篇非常牛逼的paper:《Network In Network》,过去一年已经有了好几百的引用量,这篇paper改进了传统的CNN网络,采用了少量的参数就松松击败了Alexnet网络,Alexnet网络参数大小是230M,采用这篇paper的算法才 阅读全文

posted @ 2017-05-30 16:06 alexanderkun 阅读(460) 评论(0) 推荐(0) 编辑

导航