摘要:
Introduction: 传统的cnn过滤器是一个泛化的线性模型(GLM),我们认为这GLM的抽象能力是低级别的。把GLM替换为一个更有效的非线性函数近似能够提高抽象能力。当例子是线性可分时,GLM能实现很好的抽象。然而例子很多情况下是线性不可分的,输入的线性函数才能很好地表达。此网络没有采用传统 阅读全文
摘要:
Architecture: 整个网络8层,5个卷积层,3个全连接层 Relu Nonlinearity: 非饱和的relu比饱和的sigmoid或者tanh训练速度快很多,并有效解决梯度消失 Overlapping Pooling: 论文中整个网络都使用重叠网络,分别降低top-1、top-5的错误 阅读全文
摘要:
vggNet是从AlexNet而来,主要探索卷积神经网络的深度与性能之间的关系,通过反复堆叠3x3的卷积核(c中有1x1的卷积核,也只有c中有,c是16层)和2x2的最大池化层,vggNet构筑了16-19层深的卷积神经网络。 3x3卷积核:the smallest size to capture 阅读全文