影醉阏轩窗

衣带渐宽终不悔,为伊消得人憔悴。
扩大
缩小

HRank模型剪枝

HRank: Filter Pruning using High-Rank Feature Map

概述

这篇文章非常简单,直接使用每层的 \(feature\) 结果去判断 \(filter-kernel\) 的重要程度:

上图展示了网络每一层的特征重要程度分布情况,如何确定重要性?

\[\begin{aligned}\mathbf{o}_{j}^{i}(I,:,:) &=\sum_{i=1}^{r} \sigma_{i} \mathbf{u}_{i} \mathbf{v}_{i}^{T} \\&=\sum_{i=1}^{r^{\prime}} \sigma_{i} \mathbf{u}_{i} \mathbf{v}_{i}^{T}+\sum_{i=r^{\prime}+1}^{r} \sigma_{i} \mathbf{u}_{i} \mathbf{v}_{i}^{T}\end{aligned} \]

看到上述公式就明白了,就是很简单的对 \(feature-map\) 进行特征分解,特征值排序获得 \(Rank\) 信息。

代码中直接使用矩阵的秩代替特征值(未懂特征值约等于矩阵的秩操作

#get feature map of certain layer via hook
def get_feature_hook(self, input, output):
    global feature_result
    global entropy
    global total
    a = output.shape[0]
    b = output.shape[1]
    c = torch.tensor([torch.matrix_rank(output[i,j,:,:]).item() for i in range(a) for j in range(b)])

    c = c.view(a, -1).float()
    c = c.sum(0)
    feature_result = feature_result * total + c
    total = total + a
    feature_result = feature_result / total

代码中对于每层的剪枝率都有设置,比如下图中的GoogleLeNet,为什么每层的剪枝率都不同,这比率如何设置?

论文跑的结果效果可以,但是如果论文【18】也对不同的层设置不同的剪枝率,效果会不会不同?此论文如果设置全局剪枝率,而不是单独设置,会不会降低精度?

总结

  • 模型剪枝真的太虚了,论文作者已经证明结构剪枝在不同层设置相同比例没有任何意思,但是还有很多人用\(Learning Efficient Convolutional Networks through Network Slimming\) 这篇早期论文。如果仅仅为了设置一个比例,和手动设置比例没有任何区别。
  • 此论文不同的层设置不同比例,这点论文没有任何说明!试想一下,使用BN在不同层设置不同剪枝比例,多调试几个参数,相比也能得到这个性能。当出现一个新模型(GhostNet)如何去剪枝呢?为啥没人去剪枝ShuffleNetV2,是因为压缩到极限了?

posted on 2021-03-29 15:04  影醉阏轩窗  阅读(560)  评论(0编辑  收藏  举报

导航

/* 线条鼠标集合 */ /* 鼠标点击求赞文字特效 */ //带头像评论