摘要:
SqueezeNet模型主要是为了降低CNN模型参数数量而设计的。 3、在整个网络后期进行下采样,使得前期的卷积层有比较大的activation maps 阅读全文
摘要:
只有reduction-A是共用的,只是改了其中的几个参数 linear是线性激活。 结构是一样的 阅读全文
摘要:
注:平原改为简单堆叠网络 一般x是恒等映射,当x与fx尺寸不同的时候,w作用就是将x变成和fx尺寸相同。 过程: 先用w将x进行恒等映射、扩维映射或者降维映射d得到wx。(没有参数,不需要优化器训练),然后再使用优化器调整这个残差网络,这个时候优化器需要付出的effort就更小了。搜索空间更小,更容 阅读全文
摘要:
inception发展历程 v1 mlp多层感知器层 上面两个观看孔径,尺寸不一样,可以抽取不同分辨率,不同尺度的邻域范围的信息作为特征,这样就可以观察到输入数据的不同层次,不同分辨率的特征 因为这个1*1完了之后,就是做完内积以后,就在那一个点上,它是每个通道那一个点上做完内积,把所有通道的内积加 阅读全文
摘要:
介绍 VGGNet探索了CNN的深度与其性能之间的关系,反复堆叠3*3卷积核(pad=1,stride=1)和2*2最大池化核(pad=0,stride=2),16~19层深的卷积神经网络。 VGGNet常被用来提取图像特征。 主要是VGG16,19 特征提取器层是不一样的,主要每一行卷积的深度不一 阅读全文
摘要:
介绍 AlexNet是LeNet的一种更深更宽的版本。首次在CNN中应用ReLU、Dropout和LRN,GPU进行运算加速。 一共有13层,有8个需要训练参数的层(不包括池化层和LRN层),前5层是卷积层,后三层是全连接层。 最后一层是有1000个类输出的softmax层用作分类。 前言 截取22 阅读全文