02 2017 档案

摘要:ImageNet Classification with Deep Convolutional Neural Networks Alex Krizhevsky, Ilya Sutskever, Geoffrey E. Hinton 摘要 我们训练了一个大型的深度卷积神经网络,来将在ImageNet 阅读全文
posted @ 2017-02-23 11:34 outthinker 阅读(12019) 评论(0) 推荐(1) 编辑
摘要:原文链接:https://www.zhihu.com/question/27982282 1.Caffe代码层次。回答里面有人说熟悉Blob,Layer,Net,Solver这样的几大类,我比较赞同。我基本是从这个顺序开始学习的,这四个类复杂性从低到高,贯穿了整个Caffe。把他们分为三个层次介绍。 阅读全文
posted @ 2017-02-22 10:14 outthinker 阅读(4239) 评论(0) 推荐(0) 编辑
该文被密码保护。
posted @ 2017-02-22 10:02 outthinker 阅读(2) 评论(0) 推荐(0) 编辑
摘要:所谓fine tune就是用别人训练好的模型,加上我们自己的数据,来训练新的模型。fine tune相当于使用别人的模型的前几层,来提取浅层特征,然后在最后再落入我们自己的分类中。 fine tune的好处在于不用完全重新训练模型,从而提高效率,因为一般新训练模型准确率都会从很低的值开始慢慢上升,但 阅读全文
posted @ 2017-02-22 09:50 outthinker 阅读(4532) 评论(3) 推荐(0) 编辑
摘要:参考链接:http://sebastianruder.com/optimizing-gradient-descent/ 如果熟悉英文的话,强烈推荐阅读原文,毕竟翻译过程中因为个人理解有限,可能会有谬误,还望读者能不吝指出。另外,由于原文太长,分了两部分翻译,本篇主要是梯度下降优化算法的总结,下篇将会 阅读全文
posted @ 2017-02-21 11:24 outthinker 阅读(2519) 评论(0) 推荐(0) 编辑
摘要:一、由线性回归导出逻辑回归: 二、“一对多”算法解决多分类问题: 三、“过拟合”和“欠拟合”: (1)对线性回归加入正则项: (2)对逻辑回归加入正则项: (3)加入正则项之后的正规方程: 阅读全文
posted @ 2017-02-12 10:25 outthinker 阅读(276) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示