摘要: 参考:http://www.cnblogs.com/denny402/p/5073427.html 阅读全文
posted @ 2016-08-24 23:16 牧马人夏峥 阅读(239) 评论(0) 推荐(0) 编辑
摘要: 主要包括softmax-loss层(与softmax有区别),全连接层(Inner Prouduct),accuracy层,reshape层, Dropout层。 softmax: accuracy reshape Dropout层 参考:http://www.cnblogs.com/denny40 阅读全文
posted @ 2016-08-24 23:07 牧马人夏峥 阅读(218) 评论(0) 推荐(0) 编辑
摘要: 参考:http://www.cnblogs.com/denny402/p/5072507.html 主要介绍了各个激活函数。 阅读全文
posted @ 2016-08-24 23:02 牧马人夏峥 阅读(200) 评论(0) 推荐(0) 编辑
摘要: 视觉层包括Convolution, Pooling, Local Response Normalization (LRN), im2col等层。 这里介绍下conv层。 输入:n*c0*w0*h0 输出:n*c1*w1*h1 其中,c1就是参数中的num_output,生成的特征图个数 w1=(w0 阅读全文
posted @ 2016-08-24 22:58 牧马人夏峥 阅读(345) 评论(0) 推荐(0) 编辑
摘要: 一个模型由多个层构成,如Data,conv,pool等。其中数据层是模型的最底层,是模型的入口。 提供数据的输入,也提供数据从Blobs转换成别的格式进行保存输出还包括数据的预处理(如减去 均值, 放大缩小, 裁剪和镜像等)。数据源来自高效的数据库(如LevelDB和LMDB),或者hdf5 文件和 阅读全文
posted @ 2016-08-24 22:40 牧马人夏峥 阅读(307) 评论(0) 推荐(0) 编辑
摘要: 参考:http://www.cnblogs.com/denny402/p/5083300.html 上述主要介绍的是从自己的原始图片转为lmdb数据,再到训练、测试的整个流程(另外可参考薛开宇的笔记)。 用的是自带的caffenet(看了下结构,典型的CNN),因为没有GPU,整个过程实在是太慢了, 阅读全文
posted @ 2016-08-24 22:22 牧马人夏峥 阅读(506) 评论(0) 推荐(0) 编辑
摘要: 参考:http://www.cnblogs.com/denny402/p/5082341.html 上述博文用caffe自带的两张图片为例,将图片转为db格式。博主对命令参数进行了详细的解释,很赞。 遇到的问题是,因为对linux命令不熟,不知为啥创建.sh文件不成功,于是将其他文件下的.sh文件拷 阅读全文
posted @ 2016-08-24 20:39 牧马人夏峥 阅读(632) 评论(0) 推荐(0) 编辑
摘要: 参考:http://blog.csdn.net/zouxy09/article/details/24971995/ http://blog.csdn.net/zouxy09/article/details/24972869 L0范数:向量中非0元素的个数,以L0范数正则化是希望更多的W为0。 L1范 阅读全文
posted @ 2016-08-24 10:42 牧马人夏峥 阅读(196) 评论(0) 推荐(0) 编辑