01 2016 档案

摘要:转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang loves baiyan/ Vision_layer里面主要是包括了一些关于一些视觉上的操作,比如卷积、反卷积、池化等等。这里的类跟data layer一样好很多种继承关系。主要包括了这几... 阅读全文
posted @ 2016-01-23 23:30 Hello~again 阅读(20414) 评论(2) 推荐(3) 编辑
摘要:转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang loves baiyan/ data_layer应该是网络的最底层,主要是将数据送给blob进入到net中,在data_layer中存在多个跟data_layer相关的类 BaseDat... 阅读全文
posted @ 2016-01-23 13:10 Hello~again 阅读(15016) 评论(1) 推荐(1) 编辑
摘要:转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang loves baiyan/ layer这个类可以说是里面最终的一个基本类了,深度网络呢就是一层一层的layer,相互之间通过blob传输数据连接起来。首先layer必须要实现一个forwa... 阅读全文
posted @ 2016-01-22 23:48 Hello~again 阅读(11809) 评论(1) 推荐(2) 编辑
摘要:转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ 看到SyncedMem就知道,这是在做内存同步的操作。这类个类的代码比较少,但是作用是非常明显的。文件对应着syncedmem.hpp,着syncedmem.c... 阅读全文
posted @ 2016-01-22 10:58 Hello~again 阅读(9213) 评论(2) 推荐(1) 编辑
摘要:转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ 首先看到的是Blob这个类,Blob是作为Caffe中数据流通的一个基本类,网络各层之间的数据是通过Blob来传递的。这里整个代码是非常规范的,基本上条件编译,命... 阅读全文
posted @ 2016-01-21 21:24 Hello~again 阅读(37131) 评论(2) 推荐(12) 编辑
摘要:转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ 这几种方法呢都是在求最优解中经常出现的方法,主要是应用迭代的思想来逼近。在梯度下降算法中,都是围绕以下这个式子展开: $$\frac {\partial}{\p... 阅读全文
posted @ 2016-01-16 22:01 Hello~again 阅读(23909) 评论(3) 推荐(4) 编辑
摘要:转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ 以下部分代码是根据caffe的python接口,从一次forword中取出param和blob里面的卷积核 和响应的卷积图。 输入的测试图像 第一层的卷积... 阅读全文
posted @ 2016-01-15 22:40 Hello~again 阅读(16529) 评论(2) 推荐(3) 编辑

点击右上角即可分享
微信分享提示