摘要: 啰嗦开场白读本科期间,信号与系统里面经常讲到卷积(convolution),自动控制原理里面也会经常有提到卷积。硕士期间又学了线性系统理论与数字信号处理,里面也是各种大把大把卷积的概念。至于最近大火的深度学习,更有专门的卷积神经网络(Convolutional Neural Network, CNN 阅读全文
posted @ 2019-06-02 22:19 交流_QQ_2240410488 阅读(314) 评论(0) 推荐(0) 编辑
摘要: 笔者的理解:“卷积”就是“加权求和” “信号与响应的卷积”体现的是:时间上的“加权求和”; “图像平滑处理的卷积”体现的是:空间上的“加权求和”。 (后文内容为转载) 一、卷积为什么叫“卷”积 从数学上讲,卷积就是一种运算。 某种运算,能被定义出来,至少有以下特征: 1 2 比如加法: 1 2 卷积 阅读全文
posted @ 2019-06-02 22:17 交流_QQ_2240410488 阅读(1899) 评论(0) 推荐(0) 编辑
摘要: 由于计算机视觉的大红大紫,二维卷积的用处范围最广。因此本文首先介绍二维卷积,之后再介绍一维卷积与三维卷积的具体流程,并描述其各自的具体应用。 1. 二维卷积 图中的输入的数据维度为14×1414×14,过滤器大小为5×55×5,二者做卷积,输出的数据维度为10×1010×10(14−5+1=1014 阅读全文
posted @ 2019-06-02 20:03 交流_QQ_2240410488 阅读(2367) 评论(0) 推荐(0) 编辑
摘要: 我的答案是,在Conv2D输入通道为1的情况下,二者是没有区别或者说是可以相互转化的。首先,二者调用的最后的代码都是后端代码(以TensorFlow为例,在tensorflow_backend.py里面可以找到): x = tf.nn.convolution( input=x, filter=ker 阅读全文
posted @ 2019-06-02 19:56 交流_QQ_2240410488 阅读(2267) 评论(0) 推荐(0) 编辑
摘要: 卷积神经网络(CNN)张量(图像)的尺寸和参数计算(深度学习) 分享一些公式计算张量(图像)的尺寸,以及卷积神经网络(CNN)中层参数的计算。 以AlexNet网络为例,以下是该网络的参数结构图。 AlexNet网络的层结构如下: 1.Input: 图像的尺寸是227*227*3. 2.Conv-1 阅读全文
posted @ 2019-06-02 19:32 交流_QQ_2240410488 阅读(4687) 评论(0) 推荐(0) 编辑
摘要: 我们首先要知道什么是可迭代的对象(可以用for循环的对象)Iterable: 一类:list,tuple,dict,set,str 二类:generator,包含生成器和带yield的generatoe function 而生成器不但可以作用于for,还可以被next()函数不断调用并返回下一个值, 阅读全文
posted @ 2019-06-02 17:08 交流_QQ_2240410488 阅读(1248) 评论(0) 推荐(0) 编辑