摘要: 写给SCI的牛犊们 冯兆东(2016-01-10) 一、写在正文前面的话 1.1.为什么非要SCI? 我在我的博文《SCI科研论文的正面效果》(冯兆东,科学网,2014-12-20;http://blog.sciencenet.cn/blog-1200905-852514.html)一文中提及,科学 阅读全文
posted @ 2016-04-10 19:30 菜鸡一枚 阅读(456) 评论(0) 推荐(0) 编辑
摘要: 深度 | 邢波教授谈人工智能科学路径:为人工智能装上「无穷动」引擎 本文由邢波教授 授权转载 微信公众号:猫匣子 作者:邢波 有些人是因为对人工智能的原理不理解而导致,有些人是为了个人名望而宣扬人工智能威胁论,有些人则是为了商业的利益推动人工智能威胁论。——Yann LeCun 人工智能算法本身这个 阅读全文
posted @ 2016-04-10 18:37 菜鸡一枚 阅读(801) 评论(0) 推荐(0) 编辑
摘要: caffe调参经验资料文章 调参是个头疼的事情,Yann LeCun、Yoshua Bengio和Geoffrey Hinton这些大牛为什么能够跳出各种牛逼的网络?下面一些推荐的书和文章:调参资料总结Neural Network: Trick of the Trade Neural Network 阅读全文
posted @ 2016-04-10 17:04 菜鸡一枚 阅读(631) 评论(0) 推荐(0) 编辑
摘要: Caffe源码解析7:Pooling_Layer 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang-loves-baiyan/ Pooling 层一般在网络中是跟在Conv卷积层之后,做采样操作,其实是为了进一步缩小feature map, 阅读全文
posted @ 2016-04-10 17:00 菜鸡一枚 阅读(504) 评论(0) 推荐(0) 编辑
摘要: Caffe源码解析6:Neuron_Layer 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang-loves-baiyan/ NeuronLayer,顾名思义这里就是神经元,激活函数的相应层。我们知道在blob进入激活函数之前和之后他的si 阅读全文
posted @ 2016-04-10 16:13 菜鸡一枚 阅读(431) 评论(0) 推荐(0) 编辑
摘要: Caffe源码解析5:Conv_Layer 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang-loves-baiyan/ Vision_layer里面主要是包括了一些关于一些视觉上的操作,比如卷积、反卷积、池化等等。这里的类跟data la 阅读全文
posted @ 2016-04-10 16:03 菜鸡一枚 阅读(513) 评论(0) 推荐(0) 编辑
摘要: Caffe源码解析4: Data_layer 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang-loves-baiyan/ data_layer应该是网络的最底层,主要是将数据送给blob进入到net中,在data_layer中存在多个跟d 阅读全文
posted @ 2016-04-10 11:25 菜鸡一枚 阅读(355) 评论(0) 推荐(0) 编辑
摘要: C++中public,protected,private派生类继承问题和访问权限问题 当一个子类从父类继承时,父类的所有成员成为子类的成员,此时对父类成员的访问状态由继承时使用的继承限定符决定。 1.如果子类从父类继承时使用的继承限定符是public,那么(1)父类的public成员成为子类的pub 阅读全文
posted @ 2016-04-10 11:12 菜鸡一枚 阅读(2732) 评论(0) 推荐(1) 编辑