数学卷积与卷积神经网络

卷积神经网络之卷积

数学的卷积公式定义为:从f(x) 和 g(x) 函数中生成了一个新的函数,表示把 g(x) 进行翻转平移后与 f(x) 函数相乘的重叠部分进行积分。看起来复杂,都是纸老虎,其实g函数翻转平移之后与f的重叠部分大多都是零。在实际应用中用来处理信号,挺有用的,像是用来简化傅里叶变换等。

一维连续卷积:

h(x)=(fg)(x)=f(t)g(xt)dt

一维离散卷积:

h(x)=(fg)(x)=n=f(n)g(xn)

二维离散卷积

h(x,y)=(fg)(x,y)=nmf(n,m)g(xn,ym)

互相关(cross-correlation):这是卷积神经网络里面的卷积,其计算方法为:

h(i,j)=a=δδb=δδf(a,b)g(i+a,j+b)

从公式里可以看出,f(a,b)表示卷积核,g(i+a,j+b)表示图片,说白了互相关就是卷积核与原始图片对应相乘再求和。与二维离散卷积对比可以看出,互相关和卷积不是相同的操作,互相关别没有对g(x,y)函数进行翻转。但是即使不翻转也能表示目标检测任务的两个目标:平移不变性和检测局部性。局部性取决于δ的范围。

总结:

图像处理的角度看,互相关操作,f函数为模板(滤波器),g函数为图像,互操作就是对图像进行滤波,比如消除噪声,特征增强等。

信号处理的角度,看卷积,卷积就是对信号进行滤波,用冲击函数表示激励函数,然后根据冲击响应求解系统的零状态响应。

posted @   Ladisson-blog  阅读(122)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
点击右上角即可分享
微信分享提示