摘要: Introduction: 传统的cnn过滤器是一个泛化的线性模型(GLM),我们认为这GLM的抽象能力是低级别的。把GLM替换为一个更有效的非线性函数近似能够提高抽象能力。当例子是线性可分时,GLM能实现很好的抽象。然而例子很多情况下是线性不可分的,输入的线性函数才能很好地表达。此网络没有采用传统 阅读全文
posted @ 2017-04-12 18:15 有梦就要去实现他 阅读(660) 评论(0) 推荐(0) 编辑
摘要: Architecture: 整个网络8层,5个卷积层,3个全连接层 Relu Nonlinearity: 非饱和的relu比饱和的sigmoid或者tanh训练速度快很多,并有效解决梯度消失 Overlapping Pooling: 论文中整个网络都使用重叠网络,分别降低top-1、top-5的错误 阅读全文
posted @ 2017-04-12 16:33 有梦就要去实现他 阅读(181) 评论(0) 推荐(0) 编辑
摘要: vggNet是从AlexNet而来,主要探索卷积神经网络的深度与性能之间的关系,通过反复堆叠3x3的卷积核(c中有1x1的卷积核,也只有c中有,c是16层)和2x2的最大池化层,vggNet构筑了16-19层深的卷积神经网络。 3x3卷积核:the smallest size to capture 阅读全文
posted @ 2017-04-12 11:28 有梦就要去实现他 阅读(343) 评论(0) 推荐(0) 编辑