王昱棋

导航

卷积神经网络

卷积神经网络整体架构

卷积层涉及参数

激活函数


每个区域提取的特征要尽可能的多?

卷积大量提取特征,让下游有的选择,特征的多样性,第一层有丰富信息,第二层才有得做
256
512
每个区域提取的特征要尽可能的多
每个区域都有 256 个特征

卷积核的层数和输入是一样的?

刚刚输入的彩色图片是三层,那么初始的卷积核就是三层的

卷积核上的权重是什么样的?

开始时是随机的
后需要更新的
卷积加偏置等于最后的值

卷积核大小 为什么 3×3 ?

计算量更大,
算的次数多,
特征算出来的多,
提取较多的特征

步长的选择?

越小越好,特征也提取的比较好

pading的作用?

加上边界,对边界点不公平,需要加个边界,加一圈 0
h 加 2,w 加 2

提很多层卷积,每一层卷积在做什么?

不可解释

卷积结果计算公式?


共享权重参数?

w权重不变,每一层的权重不变,随着步长一步一步的往下走
共享权重参数,
省参数,省资源,多个卷积核来弥补
如果图像变大了,参数个数不会发生改变

池化层的作用?

经典算法vgg

经典算法 resnet

目的: 筛选特征的过程
图变小了,个数没变,
maxpooling 取出四个位置中的 最大的值 最大池化,也就是最厉害的特征,无法证明,实践发现,数值越来越大,的效果越来越好,也就是最好的特征
平均池化,已经很少用了,在取全局特征时,会取平均池化
池化不需要训练,已经定好了,去最大的,没有参数计算的过程,参数也不会发生变化
4×4 变成 2×2

vgg 经典

1 3×3 卷积可以一直用
2 pooling突变小后,就是精锐了,卷积核翻倍 再去扩充特征
3 速度慢
存在的问题:层数越高,错误率越高,无法解决

resnet 经典 改变世界的一件事

一句话:至少不比原来差
为什么会变差,无可解释,为什么越来越变差?
x 2x 3x 对照实验
全改成 resnet 格式
缺点:存储空间太大了,额外存储其中的 x 显存翻倍了,中间过程的显存使用翻倍了
怎么办?
分支越多推理速度越慢,分支合并后续讲,推理时省,训练时省不了(推理这部分还不理解)
参数没有变大

感受野 重要操作

特征图中上的一个点相当于是原始图像的多大区域

感受野的计算

计算一个点代表的原输入的多少像素点

是越大越好吗?

是的,感受野越大越好
一个点相当于是很大一个区域
为什么 3×3?
1 参数少
2 特征多
3 速度快
4 同样的感受野下,3*3要多处理几层,可以增加非线性 增加 bn 标准化

posted on 2023-08-21 21:11  王昱棋  阅读(11)  评论(0编辑  收藏  举报