摘要:
吴恩达 Andrew Ng 的视频教程“改善深层神经网络:超参数调试、正则化以及优化”,主要介绍: 如何有效的运作神经网络,内容涉及超参数调优,如何构建数据,以及如何确保优化算法快速运行,从而使学习算法在合理时间内完成自我学习。 下面是笔记的索引: 第一周: 深度学习的实用层面 1.1 训练/开发/ 阅读全文
摘要:
吴恩达 Andrew Ng 的视频教程“改善深层神经网络:超参数调试、正则化以及优化”,主要介绍: 如何有效的运作神经网络,内容涉及超参数调优,如何构建数据,以及如何确保优化算法快速运行,从而使学习算法在合理时间内完成自我学习。 下面是笔记的索引: 第一周: 深度学习的实用层面 1.1 训练/开发/ 阅读全文
摘要:
卷积运算本质上就是在滤波器和输入数据的局部区域间做点积,最直观明了的方法就是用滑窗的方式,c++简单实现如下: 直接用滑窗的方法计算卷积,效率比较低,因此一般把卷积操作转换为矩阵乘法。这样可以高效的利用优化之后的矩阵乘法,具体可以参考Caffe中的im2col的实现。 在上图中, input fea 阅读全文
摘要:
YOLO算法(You Only Look Once) 比如你输入图像是100x100,然后在图像上放一个网络,为了方便讲述,此处使用3x3网格,实际实现时会用更精细的网格(如19x19)。基本思想是,使用图像分类和定位算法,然后将算法应用到9个格子上。更具体一点,你需要这样定义训练标签,对于9个格子 阅读全文
摘要:
DBSCAN,英文全写为Density-based spatial clustering of applications with noise ,是在 1996 年由Martin Ester, Hans-Peter Kriegel, Jörg Sander 及 Xiaowei Xu 提出的聚类分析算 阅读全文
摘要:
目标定位(Object localization) 不仅要正确分类目标,还要找出目标所在位置 让神经网络多输出几个单元,输出一个边界框,具体说就是让神经网络再多输出4个数字,bx,by,bh,bw,这四个数字是被检测对象的边界框的参数化表示 约定:图片左上角记为(0,0),右下角记为(1,1),要想 阅读全文
摘要:
如果你要做一个计算机视觉应用,相比于从头训练权重,或者说从随机初始化权重开始,如果你下载别人已经训练好的网络结构的权重,那么你的进展会相当快。用这个预训练,然后转换到你感兴趣的任务上。 假如说你要建立一个猫的检测器,用来检测你自己的宠物猫,我们这里分类3个类别,Tigger、Misty和neithe 阅读全文
摘要:
在架构内容设计方面,其中一个比较有帮助的想法是使用1x1卷积。1x1卷积能做什么? 对于6x6x1的通道的图片来说,1x1卷积效果不佳,如果是一张6x6x32的图片,那么使用1x1卷积核进行卷积效果更好。 1x1卷积所实现的功能是,遍历36(6x6)个单元,计算左图中32个数字和卷积核中32个数字的 阅读全文
摘要:
LeNet – 5网络 网络结构为: 输入图像是:32x32x1的灰度图像 卷积核:5x5,stride=1 得到Conv1:28x28x6 池化层:2x2,stride=2 (池化之后再经过激活函数sigmoid) 得到Pool1:14x14x6 卷积核:5x5,stride=1 得到Conv2: 阅读全文
摘要:
卷积神经网络示意 假设一个任务,有一张32x32x3的输入图片,目的是做数字检测 卷积有两种分类,即所谓的层的划分。一类卷积是一个卷积层与一个池化层一起作为一层,另一类是把一个卷积层看成是一层,池化层也单独作为一层。当人们在计算神经网络有多少层时,通常只统计具有权重和参数的层。因为池化层没有权重和参 阅读全文
摘要:
单层卷积网络 如何构建卷积神经网络的卷积层? 如下图,6x6x3的RGB图像与2个3x3x3的卷积核做卷积,得到2个4x4的矩阵,然后再加上偏置b(对4x4矩阵每个元素均加上该偏置b),接着将其作为ReLU激活函数的输入,得到2个4x4的矩阵输出。即6x6x3的RGB图像与2个3x3x3的卷积核做卷 阅读全文
|