深度学习基础:1x1的卷积
1.跨通道的特征整合
比如:输入的特征是16x64x64,其中16是通道数,假如我们想要把16个通道的信息进行融合,最后输出的8个特征,那我们就需要8个的卷积核,然后输出的特征就是。这个8个是将16个通道的每个高宽进行卷积之后再相加的。
2.特征通道的升维和降维
和上面的例子一样,比如说输入的特征是,输出通道为,这个例子相当于降维。然后如果我们输入的通道是,这个就是升维。
3.加入非线性。
卷积层之后经过激励层,1*1的卷积在前一层的学习表示上添加了非线性激励( non-linear activation ),提升网络的表达能力。
4. 引入非线性
卷积层之后经过激活函数,1* 1的卷积在前一层的学习表示上加了非线性激活,提升网络的非线性;
5. 减少参数
不引入1×1卷积的卷积操作:
引入1×1卷积的卷积操作:
我们发现引入1*1卷积比不引入少了一个数量级。
6. 1x1的卷积可以代替全连接层
我们以单通道的的特征图为例子:
1 | 2 | 3 |
---|---|---|
4 | 5 | 6 |
7 | 8 | 9 |
然后我们把该特征图开成一维(9个)
1 |
---|
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
上面是一个神经元的输出,我们可以发现,全连接层其实就是一个全局的卷积,就是等于:
就等于
然后我们再来看看卷积是怎么做的?
然后卷积后的结果为。然后如果输出是4类别的化,我们可以用4个的卷积。我们发现,其实也是差不多的,只是卷积的w是共享参数的。
对于多维的:
下面是一个[2,2,2]的特征矩阵,通道数为2。全连接之后:
下面用4个的矩阵进行卷积:
我们发现其实差不多的。
但是全连接层会破坏图像的空间结构,用卷积层的好处就是不会破坏图形的空间结构,并且可以起到升维、降维的作用。
总结:
-
把卷积作用的区域扩大为整个输入,那就变成全连接了,所以我们只需要把卷积核变成跟输入的一个map的大小一样就可以了,这样的话就相当于使得卷积跟全连接层的参数一样多。卷积核的个数*卷积核的大小=全连接的权重矩阵
-
用1*1卷积层可以起到升维、降维的作用
-
全连接层会破坏图像的空间结构,而1*1卷积层不会破坏图像的空间结构。
-
全连通就相当于每个像素点都一样对待,但是卷积是将一个区域单独对待,所以会保留图像局部特征
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)