摘要: 1.前向传播: 一般的我们有top[0]来存放数据,top[1]来存放标签(对于bottom也一样) 2.反向传播: 解释: 补充:最后部分,Zi!=Zj和Zi=Zj部分写反了,大家注意一下~ 阅读全文
posted @ 2017-03-09 09:15 outthinker 阅读(4868) 评论(2) 推荐(1) 编辑
该文被密码保护。 阅读全文
posted @ 2017-03-08 21:18 outthinker 阅读(3) 评论(0) 推荐(0) 编辑
摘要: 一、首先说一下范数的概念: 向量的范数可以简单形象的理解为向量的长度,或者向量到零点的距离,或者相应的两个点之间的距离。 向量的范数定义:向量的范数是一个函数||x||,满足非负性||x|| >= 0,齐次性||cx|| = |c| ||x|| ,三角不等式||x+y|| <= ||x|| + || 阅读全文
posted @ 2017-03-08 19:36 outthinker 阅读(2467) 评论(0) 推荐(0) 编辑
摘要: ImageNet Classification with Deep Convolutional Neural Networks Alex Krizhevsky, Ilya Sutskever, Geoffrey E. Hinton 摘要 我们训练了一个大型的深度卷积神经网络,来将在ImageNet 阅读全文
posted @ 2017-02-23 11:34 outthinker 阅读(11949) 评论(0) 推荐(1) 编辑
摘要: 原文链接:https://www.zhihu.com/question/27982282 1.Caffe代码层次。回答里面有人说熟悉Blob,Layer,Net,Solver这样的几大类,我比较赞同。我基本是从这个顺序开始学习的,这四个类复杂性从低到高,贯穿了整个Caffe。把他们分为三个层次介绍。 阅读全文
posted @ 2017-02-22 10:14 outthinker 阅读(4214) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2017-02-22 10:02 outthinker 阅读(2) 评论(0) 推荐(0) 编辑
摘要: 所谓fine tune就是用别人训练好的模型,加上我们自己的数据,来训练新的模型。fine tune相当于使用别人的模型的前几层,来提取浅层特征,然后在最后再落入我们自己的分类中。 fine tune的好处在于不用完全重新训练模型,从而提高效率,因为一般新训练模型准确率都会从很低的值开始慢慢上升,但 阅读全文
posted @ 2017-02-22 09:50 outthinker 阅读(4516) 评论(3) 推荐(0) 编辑
摘要: 参考链接:http://sebastianruder.com/optimizing-gradient-descent/ 如果熟悉英文的话,强烈推荐阅读原文,毕竟翻译过程中因为个人理解有限,可能会有谬误,还望读者能不吝指出。另外,由于原文太长,分了两部分翻译,本篇主要是梯度下降优化算法的总结,下篇将会 阅读全文
posted @ 2017-02-21 11:24 outthinker 阅读(2495) 评论(0) 推荐(0) 编辑
摘要: 一、由线性回归导出逻辑回归: 二、“一对多”算法解决多分类问题: 三、“过拟合”和“欠拟合”: (1)对线性回归加入正则项: (2)对逻辑回归加入正则项: (3)加入正则项之后的正规方程: 阅读全文
posted @ 2017-02-12 10:25 outthinker 阅读(275) 评论(0) 推荐(0) 编辑
摘要: 这两天看了Lenet的模型理解,很简单的手写数字CNN网络,90年代美国用它来识别钞票,准确率还是很高的,所以它也是一个很经典的模型。而且学习这个模型也有助于我们理解更大的网络比如Imagenet等等。 我这里主要是对网络配置文件做了相关注释,没时间解释了,上车:http://pan.baidu.c 阅读全文
posted @ 2016-12-23 10:36 outthinker 阅读(1425) 评论(0) 推荐(0) 编辑