摘要:
1.前向传播: 一般的我们有top[0]来存放数据,top[1]来存放标签(对于bottom也一样) 2.反向传播: 解释: 补充:最后部分,Zi!=Zj和Zi=Zj部分写反了,大家注意一下~ 阅读全文
该文被密码保护。 阅读全文
摘要:
一、首先说一下范数的概念: 向量的范数可以简单形象的理解为向量的长度,或者向量到零点的距离,或者相应的两个点之间的距离。 向量的范数定义:向量的范数是一个函数||x||,满足非负性||x|| >= 0,齐次性||cx|| = |c| ||x|| ,三角不等式||x+y|| <= ||x|| + || 阅读全文
摘要:
ImageNet Classification with Deep Convolutional Neural Networks Alex Krizhevsky, Ilya Sutskever, Geoffrey E. Hinton 摘要 我们训练了一个大型的深度卷积神经网络,来将在ImageNet 阅读全文
摘要:
原文链接:https://www.zhihu.com/question/27982282 1.Caffe代码层次。回答里面有人说熟悉Blob,Layer,Net,Solver这样的几大类,我比较赞同。我基本是从这个顺序开始学习的,这四个类复杂性从低到高,贯穿了整个Caffe。把他们分为三个层次介绍。 阅读全文
该文被密码保护。 阅读全文
摘要:
所谓fine tune就是用别人训练好的模型,加上我们自己的数据,来训练新的模型。fine tune相当于使用别人的模型的前几层,来提取浅层特征,然后在最后再落入我们自己的分类中。 fine tune的好处在于不用完全重新训练模型,从而提高效率,因为一般新训练模型准确率都会从很低的值开始慢慢上升,但 阅读全文
摘要:
参考链接:http://sebastianruder.com/optimizing-gradient-descent/ 如果熟悉英文的话,强烈推荐阅读原文,毕竟翻译过程中因为个人理解有限,可能会有谬误,还望读者能不吝指出。另外,由于原文太长,分了两部分翻译,本篇主要是梯度下降优化算法的总结,下篇将会 阅读全文
摘要:
一、由线性回归导出逻辑回归: 二、“一对多”算法解决多分类问题: 三、“过拟合”和“欠拟合”: (1)对线性回归加入正则项: (2)对逻辑回归加入正则项: (3)加入正则项之后的正规方程: 阅读全文
摘要:
这两天看了Lenet的模型理解,很简单的手写数字CNN网络,90年代美国用它来识别钞票,准确率还是很高的,所以它也是一个很经典的模型。而且学习这个模型也有助于我们理解更大的网络比如Imagenet等等。 我这里主要是对网络配置文件做了相关注释,没时间解释了,上车:http://pan.baidu.c 阅读全文