train loss与test loss结果分析(接利用caffe的solverstate断点训练)

摘要: train loss 不断下降,test loss不断下降,说明网络仍在学习; train loss 不断下降,test loss趋于不变,说明网络过拟合; train loss 趋于不变,test loss不断下降,说明数据集100%有问题; train loss 趋于不变,test loss趋于 阅读全文
posted @ 2017-07-14 16:16 塔上的樹 阅读(938) 评论(0) 推荐(0) 编辑

caffe中使用crop_size剪裁训练图片

摘要: http://blog.csdn.net/u010417185/article/details/52651761 [python] view plain copy layer { name: "data" type: "Data" top: "data" top: "label" include { 阅读全文
posted @ 2017-07-14 15:28 塔上的樹 阅读(925) 评论(0) 推荐(0) 编辑

ImageNet: what is top-1 and top-5 error rate?

摘要: https://stats.stackexchange.com/questions/156471/imagenet-what-is-top-1-and-top-5-error-rate Your classifier gives you a probability for each class. L 阅读全文
posted @ 2017-07-14 14:36 塔上的樹 阅读(795) 评论(0) 推荐(0) 编辑

python中if __name__ == '__main__':

摘要: Using a module's __name__ Example 8.2. Using a module's __name__ #!/usr/bin/python # Filename: using_name.py if __name__ == '__main__': print 'This 阅读全文
posted @ 2017-07-11 20:36 塔上的樹 阅读(381) 评论(0) 推荐(0) 编辑

Train-net流程

摘要: 阅读全文
posted @ 2017-07-11 16:29 塔上的樹 阅读(188) 评论(0) 推荐(0) 编辑

caffe 中base_lr、weight_decay、lr_mult、decay_mult代表什么意思?

摘要: 在机器学习或者模式识别中,会出现overfitting,而当网络逐渐overfitting时网络权值逐渐变大,因此,为了避免出现overfitting,会给误差函数添加一个惩罚项,常用的惩罚项是所有权重的平方乘以一个衰减常量之和。其用来惩罚大的权值。 The learning rate is a p 阅读全文
posted @ 2017-07-11 15:50 塔上的樹 阅读(14710) 评论(0) 推荐(2) 编辑

finetune on caffe

摘要: 官方例程:http://caffe.berkeleyvision.org/gathered/examples/finetune_flickr_style.html 相应的中文说明:http://blog.csdn.net/liumaolincycle/article/details/48501423 阅读全文
posted @ 2017-07-11 15:37 塔上的樹 阅读(427) 评论(0) 推荐(0) 编辑

深度学习之收敛问题

摘要: http://blog.csdn.net/xlbryant/article/details/48470987 1.数据库太小一般不会带来不收敛的问题,只要你一直在train总会收敛(rp问题跑飞了不算)。反而不收敛一般是由于样本的信息量太大导致网络不足以fit住整个样本空间。样本少只可能带来过拟合的 阅读全文
posted @ 2017-07-10 22:12 塔上的樹 阅读(945) 评论(0) 推荐(0) 编辑

隐性问题

摘要: 1.请问跑自己的数据,synset_words标签的顺序有什么规则吗? http://www.caffecn.cn/?/question/1273 阅读全文
posted @ 2017-07-10 20:54 塔上的樹 阅读(134) 评论(0) 推荐(0) 编辑

Open函数

摘要: open函数 open 函数可以打开一个文件。超级简单吧?大多数时候,我们看到它这样被使用: 我现在写这篇文章的原因,是大部分时间我看到open被这样使用。有三个错误存在于上面的代码中。你能把它们全指出来吗?如不能,请读下去。在这篇文章的结尾,你会知道上面的代码错在哪里,而且,更重要的是,你能在自己 阅读全文
posted @ 2017-07-10 10:40 塔上的樹 阅读(387) 评论(0) 推荐(0) 编辑