上一页 1 ··· 40 41 42 43 44 45 46 47 48 ··· 62 下一页
该文被密码保护。 阅读全文
posted @ 2016-04-16 10:44 牧马人夏峥 阅读(2) 评论(0) 推荐(0) 编辑
摘要: 很早之前就听过这本书,找工作之前读一读。看了几页,个人感觉实在是生涩难懂,非常不符合中国人的思维方式。之前也有博主做过笔记,我来补充一些自己的理解。 我看有人记了笔记,还不错:http://www.360doc.com/content/12/0426/20/7899729_206769585.sht 阅读全文
posted @ 2016-04-15 22:38 牧马人夏峥 阅读(196) 评论(0) 推荐(0) 编辑
摘要: Abstract:这篇论文有三个贡献,第一提出了新颖的简化的结构损失函数,能保持尽量多的训练样本,通过适应模型输出的不确定性来减少跟踪误差累积风险。 第二是增强了普通的SGD,采用了暂时的选择策略来进行CNN训练。第三,更新CNN模型时采用一种更lazy的方式来加快训练,只有当目标外观发生较大变化时 阅读全文
posted @ 2016-04-07 09:47 牧马人夏峥 阅读(391) 评论(0) 推荐(0) 编辑
摘要: 跟着这位博主来学习C++的卷积网络实例,因为作者一直在更新代码,所以新的代码和这位博主的分析有所不同;这位博主写的东西太泛了,没有讲到实质, 可以参考下他分析的类与类之间的关系图。。 前四节:http://blog.csdn.net/u013088062/article/details/508390 阅读全文
posted @ 2016-04-06 17:12 牧马人夏峥 阅读(3200) 评论(0) 推荐(0) 编辑
摘要: 转自知乎:https://www.zhihu.com/question/34681168 阅读全文
posted @ 2016-04-03 21:05 牧马人夏峥 阅读(339) 评论(0) 推荐(0) 编辑
摘要: 实现二叉树的遍历且只需要O(1)的空间。 参考:http://www.cnblogs.com/AnnieKim/archive/2013/06/15/MorrisTraversal.html 阅读全文
posted @ 2016-04-03 14:32 牧马人夏峥 阅读(188) 评论(0) 推荐(0) 编辑
摘要: 当训练样本比较少时,为了防止过拟合,可以丢掉一些节点的连接,让某些隐含层结点不工作(即停止更新权值),采用部分连接的方式。 参考:http://blog.csdn.net/on2way/article/details/50525548 和http://www.cnblogs.com/tornadom 阅读全文
posted @ 2016-03-31 10:14 牧马人夏峥 阅读(874) 评论(0) 推荐(0) 编辑
摘要: CNN是深度学习的一个框架,是深度学习在图像领域的应用。主要用来识别位移、缩放及其他形式扭曲不变性的二维图形。 刚开始接触,把学习过程记录下来。 首先得知道CNN中的convolution体现在哪,CNN与一般滤波的区别在哪,CNN的一般过程。 UFLDL中讲到了卷积特征提取和池化:http://d 阅读全文
posted @ 2016-03-30 17:13 牧马人夏峥 阅读(230) 评论(0) 推荐(0) 编辑
摘要: 这位博主关于神经网络的博客,从梯度下降开始,到matlab的神经网络工具箱的使用,做了一些实验,虽然简单,但有助于对神经网络的理解。 http://blog.csdn.net/on2way/article/category/2631001 阅读全文
posted @ 2016-03-28 22:27 牧马人夏峥 阅读(276) 评论(0) 推荐(0) 编辑
摘要: 不定时更新。。。。。 首先是吴老爷子在优酷的视频,可惜外音太大了:http://list.youku.com/albumlist/show?id=21508721&ascending=1&page=1 这位博主的博文,写的很全:http://www.cnblogs.com/tornadomeet/t 阅读全文
posted @ 2016-03-28 16:33 牧马人夏峥 阅读(274) 评论(0) 推荐(0) 编辑
上一页 1 ··· 40 41 42 43 44 45 46 47 48 ··· 62 下一页