上一页 1 ··· 6 7 8 9 10 11 12 13 14 ··· 27 下一页
摘要: 谷歌 Inception 网络简介( Inception network motivation) 构建卷积层时,你要决定过滤器的大小究竟是 1×1, 3×3 还是 5×5,或者要不要添加池化层。而 Inception 网络的作用就是代替你来决定,虽然网络架构因此变得更加复杂,但网络表现却非常好。 例 阅读全文
posted @ 2018-11-06 21:49 刘-皇叔 阅读(2223) 评论(0) 推荐(0) 编辑
摘要: 网络中的网络以及 1×1 卷积( Network in Network and 1×1 convolutions) 过滤器为 1×1,这里是数字 2,输入一张 6×6×1 的图片,然后对它做卷积,起过滤器大小为 1×1×1,结果相当于把这个图片乘以数字 2,所以前三个单元格分别是 2、 4、 6 等 阅读全文
posted @ 2018-11-06 20:51 刘-皇叔 阅读(538) 评论(0) 推荐(0) 编辑
摘要: 残差网络为什么有用?( Why ResNets work?) 一个网络深度越深,它在训练集上训练的效率就会有所减弱,这也是有时候我们不希望加深网络的原因。而事实并非如此,至少在训练 ResNets网络时,并非完全如此,举个例子: 设有一个大型神经网络,其输入为X,输出激活值${a^{[l]}}$ 。 阅读全文
posted @ 2018-11-06 20:45 刘-皇叔 阅读(8177) 评论(0) 推荐(1) 编辑
摘要: 残差网络(Residual Networks (ResNets)) 非常非常深的神经网络是很难训练的,因为存在梯度消失和梯度爆炸问题。 跳跃连接( Skip connection),它可以从某一层网络层获取激活,然后迅速反馈给另外一层,甚至是神经网络的更深层。我们可以利用跳跃连接构建能够训练深度网络 阅读全文
posted @ 2018-11-06 20:38 刘-皇叔 阅读(669) 评论(0) 推荐(0) 编辑
摘要: 经典网络(Classic networks) LeNet-5 假设你有一张 32×32×1 的图片, LeNet-5 可以识别图中的手写数字,比如像这样手写数字 7。 LeNet-5 是针对灰度图片训练的,所以图片的大小只有 32×32×1。 使用 6 个 5×5的过滤器,步幅为 1。由于使用了 6 阅读全文
posted @ 2018-11-06 20:33 刘-皇叔 阅读(433) 评论(0) 推荐(0) 编辑
摘要: 为什么使用卷积?(Why convolutions?) 和只用全连接层相比,卷积层的两个主要优势在于参数共享和稀疏连接: 假设有一张 32×32×3 维度的图片,假设用了 6 个大小为 5×5 的过滤器,输出维度为 28×28×6。32×32×3=3072, 28×28×6=4704。我们构建一个神 阅读全文
posted @ 2018-11-05 22:47 刘-皇叔 阅读(1085) 评论(0) 推荐(0) 编辑
摘要: 卷积神经网络示例 (Convolutional neural network example) 假设,有一张大小为 32×32×3 的输入图片,这是一张 RGB 模式的图片,你想做手写体数字识别。 32×32×3 的 RGB 图片中含有某个数字,比如 7,你想识别它是从 0-9 这 10 个字中的哪 阅读全文
posted @ 2018-11-05 21:55 刘-皇叔 阅读(1086) 评论(0) 推荐(0) 编辑
摘要: 池化层(Pooling layers) 除了卷积层,卷积网络也经常使用池化层来缩减模型的大小,提高计算速度,同时提高所提取特征的鲁棒性。 假如输入是一个 4×4 矩阵,用到的池化类型是最大池化( max pooling)。执行最大池化的树池是一个 2×2 矩阵。执行过程非常简单,把 4×4 的输入拆 阅读全文
posted @ 2018-11-05 13:46 刘-皇叔 阅读(5640) 评论(0) 推荐(0) 编辑
摘要: 简单卷积网络示例 (A simple convolution network example) 假设你有一张图片,你想做图片分类或图片识别,把这张图片输入定义为,然后辨别图片中有没有猫,用 0 或 1 表示,这是一个分类问题,我们来构建适用于这项任务的卷积神经网络。针对这个示例,我用了一张比较小的图 阅读全文
posted @ 2018-11-04 21:31 刘-皇叔 阅读(973) 评论(0) 推荐(0) 编辑
摘要: 单层卷积网络( One layer of a convolutional network) 假设使用第一个过滤器进行卷积,得到第一个 4×4 矩阵。使用第二个过滤器进行卷积得到另外一个 4×4 矩阵。 最终各自形成一个卷积神经网络层,然后增加偏差,它是一个实数,通过 Python 的广播机制给这 1 阅读全文
posted @ 2018-11-04 20:54 刘-皇叔 阅读(1010) 评论(0) 推荐(0) 编辑
摘要: 三维卷积(Convolutions over volumes) 假如说你不仅想检测灰度图像的特征,也想检测 RGB 彩色图像的特征。彩色图像如果是 6×6×3,这里的 3指的是三个颜色通道,你可以把它想象成三个 6×6图像的堆叠。为了检测图像的边缘或者其他的特征,不是把它跟原来的 3×3 的过滤器做 阅读全文
posted @ 2018-11-04 19:13 刘-皇叔 阅读(5354) 评论(0) 推荐(1) 编辑
摘要: 卷积步长( Strided convolutions) 卷积中的步幅是另一个构建卷积神经网络的基本操作。 如果你想用 3×3 的过滤器卷积这个 7×7 的图像,和之前不同的是,我们把步幅设置成了2。你还和之前一样取左上方的 3×3 区域的元素的乘积,再加起来,最后结果为 91。 只是之前我们移动蓝框 阅读全文
posted @ 2018-11-04 16:17 刘-皇叔 阅读(7052) 评论(0) 推荐(0) 编辑
摘要: Padding 如果你用一个 3×3 的过滤器卷积一个 6×6 的图像,你最后会得到一个 4×4 的输出,也就是一个 4×4 矩阵。那是因为你的 3×3 过滤器在 6×6 矩阵中,只可能有 4×4 种可能的位置。这背后的数学解释是,如果我们有一个n×n的图像,用f×f的过滤器做卷积,那么输出的维度就 阅读全文
posted @ 2018-11-04 15:42 刘-皇叔 阅读(896) 评论(0) 推荐(0) 编辑
摘要: 更多边缘检测内容( More edge detection) 区分正边和负边,这实际就是由亮到暗与由暗到亮的区别,也就是边缘的过渡: 这张 6×6 的图片,左边较亮,而右边较暗,将它与垂直边缘检测滤波器进行卷积,检测结果就显示在了右边这幅图的中间部分。 接下来的矩阵颜色被翻转了,变成了左边比较暗,而 阅读全文
posted @ 2018-11-04 15:39 刘-皇叔 阅读(672) 评论(0) 推荐(0) 编辑
摘要: 边缘检测示例( Edge detection example) 在人脸识别过程中神经网络的前几层是如何检测边缘的,然后,后面的层有可能检测到物体的部分区域,更靠后的一些层可能检测到完整的物体。 这是一个 6×6 的灰度图像。因为是灰度图像,所以它是 6×6×1 的矩阵: 为了检测图像中的垂直边缘,你 阅读全文
posted @ 2018-11-04 15:34 刘-皇叔 阅读(1609) 评论(0) 推荐(0) 编辑
摘要: 计算机视觉( Computer vision) 计算机视觉时要面临一个挑战,就是数据的输入可能会非常大。 假设操作的都是 64×64 的小图片,实际上,它的数据量是 64×64×3,因为每张图片都有 3 个颜色通道。如果计算一下的话,可得知数据量为 12288,所以我们的特征向量维度为 12288。 阅读全文
posted @ 2018-11-04 15:28 刘-皇叔 阅读(699) 评论(0) 推荐(0) 编辑
摘要: 是否要使用端到端的深度学习?(Whether to use end to-end learning?) 假设你正在搭建一个机器学习系统,你要决定是否使用端对端方法,我们来看看端到端深度学习的一些优缺点,这样你就可以根据一些准则,判断你的应用程序是否有希望使用端到端方法。 优点: 端到端学习真的只是让 阅读全文
posted @ 2018-11-04 11:37 刘-皇叔 阅读(1022) 评论(0) 推荐(0) 编辑
摘要: 什么是端到端的深度学习?(What is end-to-end deep learning?) 端到端学习到底是什么呢?简而言之, 以前有一些数据处理系统或者学习系统,它们需要多个阶段的处理。那么端到端深度学习就是忽略所有这些不同的阶段,用单个神经网络代替它。 以语音识别为例,你的目标是输入x,比如 阅读全文
posted @ 2018-11-04 11:34 刘-皇叔 阅读(8267) 评论(0) 推荐(0) 编辑
摘要: 多任务学习(Multi-task learning) 在迁移学习中,你的步骤是串行的,你从任务A里学习只是然后迁移到任务B。在多任务学习中,你是同时开始学习的,试图让单个神经网络同时做几件事情,然后希望这里每个任务都能帮到其他所有任务。 假设你在研发无人驾驶车辆,那么你的无人驾驶车可能需要同时检测不 阅读全文
posted @ 2018-11-04 11:33 刘-皇叔 阅读(1136) 评论(0) 推荐(0) 编辑
摘要: 迁移学习(Transfer learning) 深度学习中,最强大的理念之一就是,有的时候神经网络可以从一个任务中习得知识,并将这些知识应用到另一个独立的任务中。所以例如,也许你已经训练好一个神经网络,能够识别像猫这样的对象,然后使用那些知识,或者部分习得的知识去帮助您更好地阅读 x 射线扫描图,这 阅读全文
posted @ 2018-11-04 11:30 刘-皇叔 阅读(429) 评论(0) 推荐(0) 编辑
上一页 1 ··· 6 7 8 9 10 11 12 13 14 ··· 27 下一页