摘要: 1.使用卷积层代替全连接层的好处: 答:《Fully Convolutional Networks for Semantic Segmentation》让卷及网络在一张更大的输入图片上滑动,得到每个区域的输出。 https://zhuanlan.zhihu.com/p/22038289?refer= 阅读全文
posted @ 2018-01-30 22:06 木易修 阅读(357) 评论(0) 推荐(0) 编辑
摘要: 环境:UBUNTU 16.04 CMake caffe 1.0.0-rc3 1.首先编译caffe为debug版本: 在caffe根目录下编辑CMakeFileList.txt,加入如下几行: 重新cmake, $cmake -DCMAKE_BUILD_TYPE=Debug .. (也可以不加,在C 阅读全文
posted @ 2018-01-30 22:05 木易修 阅读(581) 评论(0) 推荐(1) 编辑
摘要: /***************************************************************************************************************************************************** 阅读全文
posted @ 2018-01-27 13:24 木易修 阅读(436) 评论(0) 推荐(0) 编辑
摘要: N层的设定一般是按照conv->bn->scale->relu的顺序来形成一个block。 关于bn,有一个注意点,caffe实现中的use_global_stats参数在训练时设置为false,测试时设置为true。 因为在训练时bn作用的对象是一个batch_size,而不是整个训练集,如果没有 阅读全文
posted @ 2018-01-27 13:15 木易修 阅读(207) 评论(0) 推荐(0) 编辑
摘要: 删除错误添加到暂存区的文件 git rm --cache xxx 或git reset xxx 阅读全文
posted @ 2018-01-19 18:36 木易修 阅读(97) 评论(0) 推荐(0) 编辑
摘要: 转自https://www.cnblogs.com/cposture/p/git.html 0 基础 我们知道Git有三大区(工作区、暂存区、版本库)以及几个状态(untracked、unstaged、uncommited),下面只是简述下Git的大概工作流程,详细的可以参见本博客的其他有关Git的 阅读全文
posted @ 2018-01-19 17:52 木易修 阅读(6668) 评论(1) 推荐(2) 编辑
摘要: 转自https://www.cnblogs.com/denny402/p/5074212.html 上文提到,到目前为止,caffe总共提供了六种优化方法: Stochastic Gradient Descent (type: "SGD"), AdaDelta (type: "AdaDelta"), 阅读全文
posted @ 2018-01-18 16:17 木易修 阅读(326) 评论(0) 推荐(0) 编辑
摘要: 转自https://www.cnblogs.com/maohai/p/6453417.html 一、深度学习中常用的调节参数 本节为笔者上课笔记(CDA深度学习实战课程第一期) 1、学习率 步长的选择:你走的距离长短,越短当然不会错过,但是耗时间。步长的选择比较麻烦。步长越小,越容易得到局部最优化( 阅读全文
posted @ 2018-01-18 14:33 木易修 阅读(1103) 评论(0) 推荐(0) 编辑
摘要: 转自http://blog.csdn.net/qq_14845119/article/details/54929389 solver.prototxt net:训练预测的网络描述文件,train_test.prototxt test_initialization:取值为true或者false,默认为 阅读全文
posted @ 2018-01-15 15:07 木易修 阅读(556) 评论(0) 推荐(0) 编辑
摘要: 研究需要,统计了一些经典CNN结构的卷积层参数。 Alexnet Krizhevsky, Alex, Ilya Sutskever, and Geoffrey E. Hinton. “Imagenet classification with deep convolutional neural net 阅读全文
posted @ 2018-01-13 17:36 木易修 阅读(289) 评论(0) 推荐(0) 编辑