SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size

1. 摘要

最近关于深度卷积神经网络的研究都集中在提高准确率上,对于准确率在同一个水平的网络,更小的网络结构至少有三个优点:1. 在分布式训练的时候需要更少的跨服务器通信;2. 从云端导出新模型到自动驾驶汽车上需要更小的带宽;3. 在 FPGA 等其它硬件内存有限的情况下更容易部署。

作者提出了一个称之为 SqueezeNet 的网络结构,可以达到和 Alex-Net 同等水平的准确率但参数量却减少了 50 多倍。再应用模型压缩技术,作者甚至可以将 SqueezeNet 压缩到小于 0.5 MB。

2. 相关工作

我们的目标是设计一个网络,参数量尽可能少,同时要保证模型的准确率。

一种方法就是对现有的网络以一种无损的方式进行压缩,已经提出的方法有:对预训练好的模型进行 SVD 分解,网络剪枝、量化和和霍夫曼编码等。

网络设计方面,随着网络的加深,我们没有办法手工选择每一层网络的卷积核大小,所以提出了 Inception 模块来结合不同大小的卷积核。而不同层之间的连接,残差网络 ResNet 和 Highway Networks 则给出了各自的方式,其中残差网络中针对特征图通道数是否相同设计了两种策略。

3. 网络结构

3.1. 设计策略

  • 用 1×1 的卷积核来替换 3×3 大小的,这样可以减小 9 倍的参数
  • 减少输入到 3×3 卷积核的特征通道数
  • 在网络后期进行下采样以便卷积层有较大的激活特征,这样做的目的是提高分类准确率

3.2. Fire 模块

为了应用上面的三个策略,作者设计了一个 Fire 模块来作为网络结构的基本块,其细节如下图所示。

 

一个 Fire 模块包含:一个只有 1×1 卷积核的挤压卷积层(squeeze)和一个混合 1×1 和 3×3 卷积核的扩展卷积层(expand)。其中,挤压层 1×1 卷积核的数量为 s1x1s1x1,扩展层中 1×1 卷积核的数量为 e1x1e1x1,3×3 卷积核的数量为 e3x3e3x3。它们三个都是可调的超参数,为了减少输入到 3×3 卷积核的输入特征通道数,我们要求 s1x1<e1x1+e3x3s1x1<e1x1+e3x3。

这里的扩展卷积层,作者是通过分别进行一个 1×1 的卷积和 3×3 的卷积,然后将它们的输出特征拼接在一起来实现的。

 

3.3. SqueezeNet 网络结构

如上图中最左边所示,SqueezeNet 以一个标准的卷积层开始,然后是 8 个 Fire 模块,最后再以一个卷积层结束。步长为 2 的池化分别跟在第一个卷积层、 第 4 个 Fire 模块、第 8 个 Fire 模块和最后一个卷积层后面。

中间的网络结构在特征图通道数相同的 Fire 模块之间引入了残差网络中的跳跃连接,而最右边的网络结构在中间结构的基础上,针对特征图通道数不一样的情况,通过一个 1×1 的卷积来调整通道数一致后再相加。

3.4. 其它细节

  • 扩展卷积层的 3×3 的卷积采通过补零来保证和 1×1 的卷积输出特征图大小一致
  • 挤压卷积层和扩展卷积层都采用 ReLU 作为激活函数
  • 最后一个 Fire 模块也即 fire9 后面有一个比率为 50% 的 Dropout 层
  • 没有全连接层,最后一个卷积层后的特征图大小为 1×1×1000
  • 学习率开始于 0.04 然后在训练过程中线性减小

 

4. 进一步压缩

现在我们有一个问题,小的模型可以压缩吗?或者说小的模型是否需要所有的密集浮点计算来保证模型的表示能力?

可以看到,原始的 SqueezeNet 模型在参数量较小的情况下准确率已经追平甚至超越了 Alex-Net。经过进一步压缩后,模型的大小甚至比 Alex-Net 小了 510 多倍,但其准确率却依然没有降低。这说明我们的小模型也仍然有进一步压缩的潜力。

5. 超参数选择

 

. 引入跳跃连接

图 2 中间的网络结构没有引入额外的参数,而右边的结构引入了 1×1 卷积的额外参数。引入跳跃连接后,模型的准确率都有所提升,而且中间简单的跳跃连接反而取得了最好的效果。

 

posted @ 2020-03-12 22:40  纯洁的小兄弟  阅读(360)  评论(0编辑  收藏  举报