文章分类 - 卷积神经网络
摘要:随着我们设计越来越深的网络,深刻理解“新添加的层如何提升神经网络的性能”变得至关重要。更重要的是设计网络的能力,在这种网络中,添加层会使网络更具表现力, 为了取得质的突破,我们需要一些数学基础知识。 函数类 首先,假设有一类特定的神经网络架构 ,它包括学习速率和其他超参数
阅读全文
摘要:训练深层神经网络是十分困难的,特别是在较短的时间内使他们收敛更加棘手。 本节将介绍批量规范化(batch normalization) (Ioffe and Szegedy, 2015),这是一种流行且有效的技术,可持续加速深层网络的收敛速度。 再结合在下一节将介绍的残差块,批量规范化使得研究人员能
阅读全文
摘要:在2014年的ImageNet图像识别挑战赛中,一个名叫GoogLeNet (Szegedy et al., 2015)的网络架构大放异彩。 GoogLeNet吸收了NiN中串联网络的思想,并在此基础上做了改进。 这篇论文的一个重点是解决了什么样大小的卷积核最合适的问题。 毕竟,以前流行的网络使用小
阅读全文
摘要:LeNet、AlexNet和VGG都有一个共同的设计模式:通过一系列的卷积层与汇聚层来提取空间结构特征;然后通过全连接层对特征的表征进行处理。 AlexNet和VGG对LeNet的改进主要在于如何扩大和加深这两个模块。 或者,可以想象在这个过程的早期使用全连接层。然而,如果使用了全连接层,可能会完全
阅读全文
摘要:虽然AlexNet证明深层神经网络卓有成效,但它没有提供一个通用的模板来指导后续的研究人员设计新的网络。 之后,我们将介绍一些常用于设计深层神经网络的启发式概念。 与芯片设计中工程师从放置晶体管到逻辑元件再到逻辑块的过程类似,神经网络架构的设计也逐渐变得更加抽象。研究人员开始从单个神经元的角度思考问
阅读全文
摘要:在LeNet提出后,卷积神经网络在计算机视觉和机器学习领域中很有名气。但卷积神经网络并没有主导这些领域。这是因为虽然LeNet在小数据集上取得了很好的效果,但是在更大、更真实的数据集上训练卷积神经网络的性能和可行性还有待研究。事实上,在上世纪90年代初到2012年之间的大部分时间里,神经网络往往被其
阅读全文
摘要:通过前面的学习我们了解到了构建一个卷积神经网络所需的几个组件。回想一下我们所学过的线性模型,无论是softmax回归还是MLP,它们对于图像的分类都是将二维的图片展平为一维的向量,然后利用全连接层进行处理。而现在我们已经学会了卷积层的处理方法,可以在图像中保留空间结构。同时利用卷积层代替全连接层的另
阅读全文
摘要:通常当我们处理图像时,我们希望逐渐降低隐藏表示的空间分辨率、聚集信息,这样随着我们在神经网络中层叠的上升,每个神经元对其敏感的感受野(输入)就越大。 而我们的机器学习任务通常会跟全局图像的问题有关(例如,“图像是否包含一只猫呢?”),所以我们最后一层的神经元应该对整个输入的全局敏感。通过逐渐聚合信息
阅读全文
摘要:在上一篇文章中我们讨论了,CNN中填充和步幅的作用。同时,我们所有的讨论都是基于二维的张量,即不考虑图片的RGB通道,然而在现实生活中我们往往需要处理多通道的图片,比如RGB图片,其通道数为3。那么,我们该如何处理多通道的图片呢? 这里我们为了处理多通道图片,将我们的输入和隐藏层表示都变成三维张量。
阅读全文
摘要:在上一篇文章中,我们了解了卷积的原理,下面让我们来看看卷积在图像识别中的具体操作 互相关运算 严格来说,卷积层是一个错误的叫法,因为它表达的运算其实是数学上的互相关(cross-correlation)运算,而不是卷积运算 我们先来看一下二维图像的互相关运算: 在二维互相关运算中,卷积窗口从输入张量
阅读全文
摘要:学过MLP的小伙伴们都知道,假设我们对一个MLP模型进行图像分类任务时,我们对输入图像的第一步操作就是将一个二维的图像展平为一维作为输出。但这样的处理方式有一个显而易见的缺点——忽略了每张图像的空间结构信息。显然这是不准确的,它会导致我们对于图像的识别率降低。除此之外,使用MLP模型进行图像分类任务
阅读全文