摘要: 简单卷积网络示例 (A simple convolution network example) 假设你有一张图片,你想做图片分类或图片识别,把这张图片输入定义为,然后辨别图片中有没有猫,用 0 或 1 表示,这是一个分类问题,我们来构建适用于这项任务的卷积神经网络。针对这个示例,我用了一张比较小的图 阅读全文
posted @ 2018-11-04 21:31 刘-皇叔 阅读(973) 评论(0) 推荐(0) 编辑
摘要: 单层卷积网络( One layer of a convolutional network) 假设使用第一个过滤器进行卷积,得到第一个 4×4 矩阵。使用第二个过滤器进行卷积得到另外一个 4×4 矩阵。 最终各自形成一个卷积神经网络层,然后增加偏差,它是一个实数,通过 Python 的广播机制给这 1 阅读全文
posted @ 2018-11-04 20:54 刘-皇叔 阅读(1010) 评论(0) 推荐(0) 编辑
摘要: 三维卷积(Convolutions over volumes) 假如说你不仅想检测灰度图像的特征,也想检测 RGB 彩色图像的特征。彩色图像如果是 6×6×3,这里的 3指的是三个颜色通道,你可以把它想象成三个 6×6图像的堆叠。为了检测图像的边缘或者其他的特征,不是把它跟原来的 3×3 的过滤器做 阅读全文
posted @ 2018-11-04 19:13 刘-皇叔 阅读(5355) 评论(0) 推荐(1) 编辑
摘要: 卷积步长( Strided convolutions) 卷积中的步幅是另一个构建卷积神经网络的基本操作。 如果你想用 3×3 的过滤器卷积这个 7×7 的图像,和之前不同的是,我们把步幅设置成了2。你还和之前一样取左上方的 3×3 区域的元素的乘积,再加起来,最后结果为 91。 只是之前我们移动蓝框 阅读全文
posted @ 2018-11-04 16:17 刘-皇叔 阅读(7052) 评论(0) 推荐(0) 编辑
摘要: Padding 如果你用一个 3×3 的过滤器卷积一个 6×6 的图像,你最后会得到一个 4×4 的输出,也就是一个 4×4 矩阵。那是因为你的 3×3 过滤器在 6×6 矩阵中,只可能有 4×4 种可能的位置。这背后的数学解释是,如果我们有一个n×n的图像,用f×f的过滤器做卷积,那么输出的维度就 阅读全文
posted @ 2018-11-04 15:42 刘-皇叔 阅读(896) 评论(0) 推荐(0) 编辑
摘要: 更多边缘检测内容( More edge detection) 区分正边和负边,这实际就是由亮到暗与由暗到亮的区别,也就是边缘的过渡: 这张 6×6 的图片,左边较亮,而右边较暗,将它与垂直边缘检测滤波器进行卷积,检测结果就显示在了右边这幅图的中间部分。 接下来的矩阵颜色被翻转了,变成了左边比较暗,而 阅读全文
posted @ 2018-11-04 15:39 刘-皇叔 阅读(672) 评论(0) 推荐(0) 编辑
摘要: 边缘检测示例( Edge detection example) 在人脸识别过程中神经网络的前几层是如何检测边缘的,然后,后面的层有可能检测到物体的部分区域,更靠后的一些层可能检测到完整的物体。 这是一个 6×6 的灰度图像。因为是灰度图像,所以它是 6×6×1 的矩阵: 为了检测图像中的垂直边缘,你 阅读全文
posted @ 2018-11-04 15:34 刘-皇叔 阅读(1609) 评论(0) 推荐(0) 编辑
摘要: 计算机视觉( Computer vision) 计算机视觉时要面临一个挑战,就是数据的输入可能会非常大。 假设操作的都是 64×64 的小图片,实际上,它的数据量是 64×64×3,因为每张图片都有 3 个颜色通道。如果计算一下的话,可得知数据量为 12288,所以我们的特征向量维度为 12288。 阅读全文
posted @ 2018-11-04 15:28 刘-皇叔 阅读(699) 评论(0) 推荐(0) 编辑
摘要: 是否要使用端到端的深度学习?(Whether to use end to-end learning?) 假设你正在搭建一个机器学习系统,你要决定是否使用端对端方法,我们来看看端到端深度学习的一些优缺点,这样你就可以根据一些准则,判断你的应用程序是否有希望使用端到端方法。 优点: 端到端学习真的只是让 阅读全文
posted @ 2018-11-04 11:37 刘-皇叔 阅读(1022) 评论(0) 推荐(0) 编辑
摘要: 什么是端到端的深度学习?(What is end-to-end deep learning?) 端到端学习到底是什么呢?简而言之, 以前有一些数据处理系统或者学习系统,它们需要多个阶段的处理。那么端到端深度学习就是忽略所有这些不同的阶段,用单个神经网络代替它。 以语音识别为例,你的目标是输入x,比如 阅读全文
posted @ 2018-11-04 11:34 刘-皇叔 阅读(8267) 评论(0) 推荐(0) 编辑
摘要: 多任务学习(Multi-task learning) 在迁移学习中,你的步骤是串行的,你从任务A里学习只是然后迁移到任务B。在多任务学习中,你是同时开始学习的,试图让单个神经网络同时做几件事情,然后希望这里每个任务都能帮到其他所有任务。 假设你在研发无人驾驶车辆,那么你的无人驾驶车可能需要同时检测不 阅读全文
posted @ 2018-11-04 11:33 刘-皇叔 阅读(1136) 评论(0) 推荐(0) 编辑
摘要: 迁移学习(Transfer learning) 深度学习中,最强大的理念之一就是,有的时候神经网络可以从一个任务中习得知识,并将这些知识应用到另一个独立的任务中。所以例如,也许你已经训练好一个神经网络,能够识别像猫这样的对象,然后使用那些知识,或者部分习得的知识去帮助您更好地阅读 x 射线扫描图,这 阅读全文
posted @ 2018-11-04 11:30 刘-皇叔 阅读(429) 评论(0) 推荐(0) 编辑
摘要: 定位数据不匹配(Addressing data mismatch) 数据不匹配的问题没有完全系统的解决方案,但我们可以看看一些可以尝试的事情。如果我发现有严重的数据不匹配问题,我通常会亲自做错误分析,尝试了解训练集和开发测试集的具体差异。技术上,为了避免对测试集过拟合,要做错误分析,你应该人工去看开 阅读全文
posted @ 2018-11-04 11:27 刘-皇叔 阅读(403) 评论(0) 推荐(0) 编辑
摘要: 不匹配数据划分的偏差和方差(Bias and Variance with mismatched data distributions) 我们继续用猫分类器为例,我们说人类在这个任务上能做到几乎完美,所以贝叶斯错误率或者说贝叶斯最优错误率,我们知道这个问题里几乎是 0%。所以要进行错误率分析,你通常需 阅读全文
posted @ 2018-11-04 11:24 刘-皇叔 阅读(436) 评论(0) 推荐(0) 编辑
摘要: 在不同的划分上进行训练并测试( Training and testing on different distributions) 在深度学习时代,越来越多的团队都用来自和开发集、测试集分布不同的数据来训练,这里有一些微妙的地方,一些最佳做法来处理训练集和测试集存在差异的情况,我们来看看。 假设你在开 阅读全文
posted @ 2018-11-04 11:21 刘-皇叔 阅读(329) 评论(0) 推荐(0) 编辑
摘要: 快速搭建你的第一个系统,并进行迭代( Build your first system quickly, then iterate) 如果你正在开发全新的机器学习应用,我通常会给你这样的建议,你应该尽快建立你的第一个系统原型,然后快速迭代。 所以我希望这些策略有帮助,如果你将机器学习算法应用到新的应用 阅读全文
posted @ 2018-11-04 11:18 刘-皇叔 阅读(339) 评论(0) 推荐(0) 编辑