12 2016 档案

摘要:这两天看了Lenet的模型理解,很简单的手写数字CNN网络,90年代美国用它来识别钞票,准确率还是很高的,所以它也是一个很经典的模型。而且学习这个模型也有助于我们理解更大的网络比如Imagenet等等。 我这里主要是对网络配置文件做了相关注释,没时间解释了,上车:http://pan.baidu.c 阅读全文
posted @ 2016-12-23 10:36 outthinker 阅读(1427) 评论(0) 推荐(0) 编辑
摘要:一、物体分类: 这里使用的是caffe官网中自带的例子,我这里主要是对代码的解释~ 首先导入一些必要的库: out: out: probabilities and labels: Out[17]: [(0.3124361, 'n02123045 tabby, tabby cat'), (0.2379 阅读全文
posted @ 2016-12-22 11:37 outthinker 阅读(2914) 评论(0) 推荐(0) 编辑
摘要:环境:Windows 最近用Caffe跑了一下AlxNet网络,现在总结一下数据处理部分:(处理过的数据打包链接:http://pan.baidu.com/s/1sl8M5ad 密码:ph1y) (1)获得数据集,途径有: 1.Benchmark(数据库) AFLW FDDB 2.最新论文(2016 阅读全文
posted @ 2016-12-19 11:40 outthinker 阅读(819) 评论(0) 推荐(0) 编辑
摘要:文章链接: http://pan.baidu.com/s/1bQBJMQ 密码:4772 作者在这里提出了基于神经网络的Cascade方法,Cascade最早可追溯到Haar Feature提取时用到的Adaboost算法(参考这个博客:http://blog.csdn.net/zouxy09/ar 阅读全文
posted @ 2016-12-17 22:53 outthinker 阅读(1896) 评论(0) 推荐(0) 编辑
摘要:《Neural Network and Deep Learning》_chapter4: A visual proof that neural nets can compute any function文章总结(前三章翻译在百度云里) 链接:http://neuralnetworksanddeepl 阅读全文
posted @ 2016-12-13 21:35 outthinker 阅读(1151) 评论(0) 推荐(0) 编辑
摘要:1.Feature Scaling(特征缩放): 如上图所示,x1是房屋面积,x2是房间个数,若不进行特征缩放,则代价函数J的曲线近似为一个瘦长的椭圆(我暂时这么理解,θ1和θ2分别是x1和x2的权值系数,而x2的特征向量值相较x1很小,则x1变化一个较小的量,在J的同一条相同的圆弧曲线上θ2就要变 阅读全文
posted @ 2016-12-12 10:44 outthinker 阅读(818) 评论(0) 推荐(0) 编辑
摘要:前段时间在笔记本上配置了Caffe框架,中间过程曲曲折折,但由于懒没有将详细过程总结下来,这两天又在一台配置较高的台式机上配置了Caffe,配置时便非常后悔当初没有写到博客中去,现已配置好Caffe,故应当立即写到博客中去,不可再拖延~ 准备工具:Win7(64位);Caffe;vs2013;ana 阅读全文
posted @ 2016-12-06 20:41 outthinker 阅读(2760) 评论(2) 推荐(0) 编辑

点击右上角即可分享
微信分享提示