11 2016 档案
摘要:这里大致说一下caffe。caffe是伯里克利大学的贾杨清教授写的一个深度学习框架,使用C++编写的,但同时也提供python和matlab接口;组成部分主要有: (1)Blob:用来存储数据和梯度; (2)Layer:网络的层; (3)Net: 网络结构,即存储权值等参数; (4)Solver:存
阅读全文
摘要:下面来介绍几种简单的训练技巧: 1.首先说一下filter(感受野)的概念:感受野的大小即特征图中的某一单元是从原始输入图像中多大的一块区域中提取的特征; 如上图,第一次卷积后得到的特征图中,每一个小单元的感受野大小为3*3,而第二次卷积后特征图中的每一个小单元对应的感受野大小为5*5,以此类推,如
阅读全文
摘要:1.经典神经网络有:2012年提出的AlexNet和2014年提出的VGGNet,结构图分别如下: 2.分类与回归: (1)分类(classfication):就是经过经过一系列的卷积层和池化层之后,再经过全连接层得到样本属于每个类的得分,再用比如softmax分类其对其进行分类; (2)回归(re
阅读全文
摘要:卷积神经网络(CNN)由输入层、卷积层、激活函数、池化层、全连接层组成,即INPUT-CONV-RELU-POOL-FC (1)卷积层:用它来进行特征提取,如下: 输入图像是32*32*3,3是它的深度(即R、G、B),卷积层是一个5*5*3的filter(感受野),这里注意:感受野的深度必须和输入
阅读全文
摘要:代码1如下: 迭代两百次,loss值到后面开始趋于饱和,accuracy为0.49,可见这种单层的神经网络和线性分类得到的最终效果并不好,效果图如下: 下面我们来使用双层神经网络和relu激活函数来进行非线性分类,代码如下:
阅读全文
摘要:关于在51CTO上的深度学习入门课程视频(9)中的code进行解释与总结: (1)单层神经网络: (2)双层神经网络: summing up:这里单层网络和双层神经网络的代码中,有几个变量要注意一下;第一个是误差变量,单层网络中是l1_error,其值为y-l1(由于这里的损失函数是二次损失函数,C
阅读全文