2017年5月29日

利用 TFLearn 快速搭建经典深度学习模型

摘要: 利用 TFLearn 快速搭建经典深度学习模型 使用 TensorFlow 一个最大的好处是可以用各种运算符(Ops)灵活构建计算图,同时可以支持自定义运算符(见本公众号早期文章《TensorFlow 增加自定义运算符》)。由于运算符的粒度较小,在构建深度学习模型时,代码写出来比较冗长,比如实现卷积 阅读全文

posted @ 2017-05-29 16:54 alexanderkun 阅读(6140) 评论(0) 推荐(1) 编辑

AlexNet详解3

摘要: Reference. Krizhevsky A, Sutskever I, Hinton G E. ImageNet Classification with Deep Convolutional Neural Networks [J]. Advances in Neural Information 阅读全文

posted @ 2017-05-29 14:47 alexanderkun 阅读(14736) 评论(0) 推荐(0) 编辑

ReLU为什么比Sigmoid效果好

摘要: 附:双曲函数类似于常见的(也叫圆函数的)三角函数。基本双曲函数是双曲正弦"sinh",双曲余弦"cosh",从它们导出双曲正切"tanh" sigmod函数: Relu函数: 综合: @作者:约翰曰不约 为什么通常Relu比sigmoid和tanh强,有什么不同?主要是因为它们gradient特性不 阅读全文

posted @ 2017-05-29 14:42 alexanderkun 阅读(31817) 评论(0) 推荐(4) 编辑

AlexNet详解2

摘要: 此处以caffe官方提供的AlexNet为例. 目录: 1.背景 2.框架介绍 3.步骤详细说明 5.参考文献 背景: AlexNet是在2012年被发表的一个金典之作,并在当年取得了ImageNet最好成绩,也是在那年之后,更多的更深的神经网路被提出,比如优秀的vgg,GoogleLeNet. 其 阅读全文

posted @ 2017-05-29 14:26 alexanderkun 阅读(20247) 评论(0) 推荐(0) 编辑

AlexNet详解

摘要: 在imagenet上的图像分类challenge上Alex提出的alexnet网络结构模型赢得了2012届的冠军。要研究CNN类型DL网络模型在图像分类上的应用,就逃不开研究alexnet,这是CNN在图像分类上的经典模型(DL火起来之后)。 在DL开源实现caffe的model样例中,它也给出了a 阅读全文

posted @ 2017-05-29 14:25 alexanderkun 阅读(4186) 评论(0) 推荐(0) 编辑

Residual Networks

摘要: 本文介绍一下2015 ImageNet中分类任务的冠军——MSRA何凯明团队的Residual Networks。实际上,MSRA是今年Imagenet的大赢家,不单在分类任务,MSRA还用residual networks赢了 ImageNet的detection, localization, 以 阅读全文

posted @ 2017-05-29 13:55 alexanderkun 阅读(416) 评论(0) 推荐(0) 编辑

卷积的概念和公式

摘要: 卷积公式 卷积概念 卷积(Convolution)是通过两个函数f(t)和g(t)生成第三个函数的一种数学算子,表征函数f(t)与g(t)经过翻转和平移的重叠部分的面积。 在卷积神经网络中会用卷积函数表示重叠部分,这个重叠部分的面积就是特征 f(t)与g(t)的卷积公式为: f(t)∗g(t)=∫t 阅读全文

posted @ 2017-05-29 11:03 alexanderkun 阅读(10307) 评论(0) 推荐(0) 编辑

导航