摘要: qt中涉及到空格路径,qmake是无法正确编译的。需要在空格路径前面加上$$quoteINCLUDEPATH += $$quote(C:/Program Files/MySQL/MySQL Server ... 阅读全文
posted @ 2016-09-15 23:43 ZhangPYi 阅读(1022) 评论(0) 推荐(0) 编辑
摘要: qt中涉及到空格路径,qmake是无法正确编译的。需要在空格路径前面加上$$quoteINCLUDEPATH += $$quote(C:/Program Files/MySQL/MySQL Server ... 阅读全文
posted @ 2016-09-15 23:43 ZhangPYi 阅读(673) 评论(0) 推荐(1) 编辑
摘要: 【卷积神经网络-进化史】从LeNet到AlexNet本博客是【卷积神经网络-进化史】的第一部分《从LeNet到AlexNet》如需转载,请附上本文链接:http://blog.csdn.net/cyh_2... 阅读全文
posted @ 2016-09-15 21:42 ZhangPYi 阅读(323) 评论(0) 推荐(0) 编辑
摘要: 【卷积神经网络-进化史】从LeNet到AlexNet本博客是【卷积神经网络-进化史】的第一部分《从LeNet到AlexNet》如需转载,请附上本文链接:http://blog.csdn.net/cyh_2... 阅读全文
posted @ 2016-09-15 21:42 ZhangPYi 阅读(169) 评论(0) 推荐(0) 编辑
摘要: 学习笔记:AlexNet&Imagenet学习笔记ImageNet(http://www.image-net.org)是李菲菲组的图像库,和WordNet 可以结合使用 (毕业于Caltech;导师:Pi... 阅读全文
posted @ 2016-09-15 21:40 ZhangPYi 阅读(221) 评论(0) 推荐(0) 编辑
摘要: 学习笔记:AlexNet&Imagenet学习笔记ImageNet(http://www.image-net.org)是李菲菲组的图像库,和WordNet 可以结合使用 (毕业于Caltech;导师:Pi... 阅读全文
posted @ 2016-09-15 21:40 ZhangPYi 阅读(469) 评论(0) 推荐(0) 编辑
摘要: caffe团队用imagenet图片进行训练,迭代30多万次,训练出来一个model。这个model将图片分为1000类,应该是目前为止最好的图片分类model了。假设我现在有一些自己的图片想进行分类,但... 阅读全文
posted @ 2016-09-15 21:37 ZhangPYi 阅读(225) 评论(0) 推荐(0) 编辑
摘要: caffe团队用imagenet图片进行训练,迭代30多万次,训练出来一个model。这个model将图片分为1000类,应该是目前为止最好的图片分类model了。假设我现在有一些自己的图片想进行分类,但... 阅读全文
posted @ 2016-09-15 21:37 ZhangPYi 阅读(2930) 评论(0) 推荐(0) 编辑
摘要: 在经过前面Caffe框架的搭建以及caffe基本框架的了解之后,接下来就要回到正题:使用caffe来进行模型的训练。但如果对caffe并不是特别熟悉的话,从头开始训练一个模型会花费很多时间和精力,需要对整... 阅读全文
posted @ 2016-09-15 21:35 ZhangPYi 阅读(198) 评论(0) 推荐(0) 编辑
摘要: 在经过前面Caffe框架的搭建以及caffe基本框架的了解之后,接下来就要回到正题:使用caffe来进行模型的训练。但如果对caffe并不是特别熟悉的话,从头开始训练一个模型会花费很多时间和精力,需要对整... 阅读全文
posted @ 2016-09-15 21:35 ZhangPYi 阅读(327) 评论(0) 推荐(0) 编辑
摘要: 现在我正在利用imagenet进行finetune训练,待训练好模型,下一步就是利用模型进行分类。故转载一些较有效的相关博客。博客来源:http://www.cnblogs.com/denny402/p/... 阅读全文
posted @ 2016-09-15 21:34 ZhangPYi 阅读(381) 评论(0) 推荐(0) 编辑
摘要: 现在我正在利用imagenet进行finetune训练,待训练好模型,下一步就是利用模型进行分类。故转载一些较有效的相关博客。博客来源:http://www.cnblogs.com/denny402/p/... 阅读全文
posted @ 2016-09-15 21:34 ZhangPYi 阅读(136) 评论(0) 推荐(0) 编辑
摘要: 1:神经网络中,我们通过最小化神经网络来训练网络,所以在训练时最后一层是损失函数层(LOSS),在测试时我们通过准确率来评价该网络的优劣,因此最后一层是准确率层(ACCURACY)。但是当我们真正要使用训... 阅读全文
posted @ 2016-09-15 20:41 ZhangPYi 阅读(301) 评论(0) 推荐(0) 编辑
摘要: 1:神经网络中,我们通过最小化神经网络来训练网络,所以在训练时最后一层是损失函数层(LOSS),在测试时我们通过准确率来评价该网络的优劣,因此最后一层是准确率层(ACCURACY)。但是当我们真正要使用训... 阅读全文
posted @ 2016-09-15 20:41 ZhangPYi 阅读(239) 评论(0) 推荐(0) 编辑
摘要: 一,train_val.prototxtname: "CIFAR10_quick"layer { name: "cifar" type: "Data" top: "data" top: "labe... 阅读全文
posted @ 2016-09-15 20:40 ZhangPYi 阅读(281) 评论(0) 推荐(0) 编辑
摘要: 一,train_val.prototxtname: "CIFAR10_quick"layer { name: "cifar" type: "Data" top: "data" top: "labe... 阅读全文
posted @ 2016-09-15 20:40 ZhangPYi 阅读(225) 评论(0) 推荐(0) 编辑
摘要: 最近想熟悉一下深度学习,体验了一下Caffe,简单写写训练和分类的过程:1.下载Caffe VS2013工程:https://github.com/Microsoft/caffe2. 解压并用VS2013... 阅读全文
posted @ 2016-09-15 20:36 ZhangPYi 阅读(193) 评论(0) 推荐(0) 编辑
摘要: 最近想熟悉一下深度学习,体验了一下Caffe,简单写写训练和分类的过程:1.下载Caffe VS2013工程:https://github.com/Microsoft/caffe2. 解压并用VS2013... 阅读全文
posted @ 2016-09-15 20:36 ZhangPYi 阅读(222) 评论(0) 推荐(0) 编辑
摘要: 本文只是自己学习一天的总结,如有不对的地方,欢迎指正!欢迎大家转载,但请标明出处,谢谢!1、*_train_test.prototxt文件这是训练与测试网络配置文件(1)在数据层中 参数include{ ... 阅读全文
posted @ 2016-09-15 20:35 ZhangPYi 阅读(170) 评论(0) 推荐(0) 编辑
摘要: 本文只是自己学习一天的总结,如有不对的地方,欢迎指正!欢迎大家转载,但请标明出处,谢谢!1、*_train_test.prototxt文件这是训练与测试网络配置文件(1)在数据层中 参数include{ ... 阅读全文
posted @ 2016-09-15 20:35 ZhangPYi 阅读(177) 评论(0) 推荐(0) 编辑