2016年8月17日
摘要: 一,train.sh 二,test.sh 阅读全文
posted @ 2016-08-17 12:52 WP的烂笔头 阅读(991) 评论(0) 推荐(0) 编辑
摘要: 1: 神经网络中,我们通过最小化神经网络来训练网络,所以在训练时最后一层是损失函数层(LOSS), 在测试时我们通过准确率来评价该网络的优劣,因此最后一层是准确率层(ACCURACY)。 但是当我们真正要使用训练好的数据时,我们需要的是网络给我们输入结果,对于分类问题,我们需要获得分类结果,如下右图 阅读全文
posted @ 2016-08-17 12:41 WP的烂笔头 阅读(2068) 评论(0) 推荐(0) 编辑
摘要: 一,train_val.prototxt 二,solver.prototxt 三,deploy.prototxt 参考一: 模型就用程序自带的caffenet模型,位置在 models/bvlc_reference_caffenet/文件夹下, 将需要的两个配置文件,复制到myfile文件夹内 修改 阅读全文
posted @ 2016-08-17 11:30 WP的烂笔头 阅读(9726) 评论(0) 推荐(0) 编辑
摘要: 个人实践代码如下: 参考一:图片减去均值再训练,会提高训练速度和精度。因此,一般都会有这个操作。 caffe程序提供了一个计算均值的文件compute_image_mean.cpp,我们直接使用就可以了 接着,计算均值,打开make_imagenet_mean.sh,修改: 这样,均值文件就计算好了 阅读全文
posted @ 2016-08-17 11:11 WP的烂笔头 阅读(3078) 评论(1) 推荐(0) 编辑
摘要: 个人实践代码如下: 结果生成两个文件:00b_train_lmdb.sh; 00b_val_lmdb.sh 参考一: 由于参数比较多,因此我们可以编写一个sh脚本来执行命令: 首先,创建sh脚本文件: 编辑,输入下面的代码并保存 [cpp] [cpp] [cpp] 注释:/convert_image 阅读全文
posted @ 2016-08-17 10:58 WP的烂笔头 阅读(5218) 评论(0) 推荐(0) 编辑
摘要: 结果会在:home/wp/CAFFE/caffe-master/myself/00b目录下生成train.txt,val.txt 参考一: 在深度学习的实际应用中,我们经常用到的原始数据是图片文件,如jpg,jpeg,png,tif等格式的,而且有可能图片的大小还不一致。而在caffe中经常使用的数 阅读全文
posted @ 2016-08-17 10:34 WP的烂笔头 阅读(4795) 评论(4) 推荐(0) 编辑
摘要: 一次创建下列文件: 1,create_txt.sh (create_filelist.sh) 2,create_lmdb.sh 3,make_mean.sh 4,train.prototxt+val.prototxt=train_val.prototxt; deploy.prototxt(用于pyt 阅读全文
posted @ 2016-08-17 10:16 WP的烂笔头 阅读(415) 评论(0) 推荐(0) 编辑
摘要: 转载:调参是个头疼的事情,Yann LeCun、Yoshua Bengio和Geoffrey Hinton这些大牛为什么能够跳出各种牛逼的网络? 下面一些推荐的书和文章:调参资料总结Neural Network: Trick of the Trade Neural Networks: Tricks 阅读全文
posted @ 2016-08-17 09:58 WP的烂笔头 阅读(1081) 评论(0) 推荐(0) 编辑
摘要: 学习需要更新,网上有一些非常不错博客. 感谢这些博主,他们都很认真。 00、tornadomeet 0、denny的学习专栏 1、xizero00 2、lingerlanlan 3、iamzhangzhuping 4、zhangwang 5、yhl_leo 6、在路上 7、seven_first 8 阅读全文
posted @ 2016-08-17 09:32 WP的烂笔头 阅读(503) 评论(0) 推荐(0) 编辑