一些量化(quantization)技巧

一些量化(quantization)技巧

对象:对权重量化,对特征图量化(神经元输出),对梯度量化(训练过程中)
过程:在inference网络前传,在训练过程(反传)
一步量化(仅对权重量化)
两步量化(对神经元与特征图量化,第一步先对feature map进行量化,第二步再对权重量化)
32位浮点和16位浮点存储的时候,
第一位是符号位,中间是指数位,后面是尾数。
英特尔在NIPS2017上,提出了把前面的指数项共享的方法。
这样可以把浮点运算,转化为尾数的整数定点运算,加速网络训练。
分布式训练梯度量化:
对权重数值进行聚类,量化的思想非常简单。
CNN参数中数值分布在参数空间,
通过一定的划分方法,总是可以划分称为k个类别。
通过储存这k个类别的中心值,或者映射值,压缩网络的储存。
量化可以分为
Low-Bit Quantization(低比特量化)
Quantization for General Training Acceleration(总体训练加速量化)
Gradient Quantization for Distributed Training(分布式训练梯度量化)
由于在量化、特别是低比特量化实现过程中,由于量化函数的不连续性,在计算梯度的时候,会产生一定的困难。
对此,阿里巴巴把低比特量化,转化成ADMM可优化的目标函数,从而由ADMM来优化。
另一个角度思考,使用哈希把二值权重量化,再通过哈希求解。
用聚类中心数值,代替原权重数值,配合Huffman编码,具体可包括标量量化或乘积量化。
如果只考虑权重自身,容易造成量化误差很低,但分类误差很高的情况。
Quantized CNN优化目标是重构误差最小化。
可以利用哈希进行编码,映射到同一个哈希桶中的权重,共享同一个参数值。
聚类例子:
    例如下面这个矩阵。
    1.2  1.3  6.1
    0.9  0.7  6.9
    -1.0 -0.9 1.0
    设定类别数k=3,通过kmeans聚类。得到:
    A类中心: 1.0 , 映射下标: 1
    B类中心: 6.5 , 映射下标: 2
    C类中心: -0.95 , 映射下标: 3
 
    储存矩阵可以变换为(距离哪个中心近,就用中心的下标替换)
    1  1  2
    1  1  2
    3  3  1
提出需要对量化后的值进行重训练,挽回一点丢失的识别率。 
基本上所有压缩方法都有损,重训练还是比较必要的。

深度神经网络压缩 Deep Compression

为了进一步压缩网络,考虑让若干个权值共享同一个权值,需要存储的数据量也大大减少。

采用kmeans算法来将权值进行聚类,在每一个类中,所有的权值共享该类的聚类质心,

最终存储一个码书和索引表。

1.对权值聚类

  采用kmeans聚类算法,通过优化所有类内元素,到聚类中心的差距(within-cluster sum of squares ),确定最终的聚类结果。

2. 聚类中心初始化

    常用的初始化,包括3种:

    a) 随机初始化。

       即从原始数据,随机产生k个观察值,作为聚类中心。

    b) 密度分布初始化。

       现将累计概率密度CDF的y值,分布线性划分,

       根据每个划分点的y值,找到与CDF曲线的交点,再找到该交点对应的x轴坐标,作为初始聚类中心。

    c) 线性初始化。

        将原始数据的最小值到最大值之间的线性划分,作为初始聚类中心。

    三种初始化方式的示意图,如下所示:

 

由于大权值比小权值更重要(参加HanSong15年论文),线性初始化方式,能更好地保留大权值中心,文中采用这一方式,后面的实验结果,验证了这个结论。

3. 前向反馈和后项传播

    前向时需要将每个权值,用对应的聚类中心代替,后向计算每个类内的权值梯度,

    将梯度和反传,用来更新聚类中心。

    如图:

 

 

     共享权值后,就可以用一个码书和对应的index来表征。

    假设原始权值用32bit浮点型表示,量化区间为256,即8bit,共有n个权值,量化后需要存储n个8bit索引和256个聚类中心值,可以计算出压缩率compression ratio:

        r = 32*n / (8*n + 256*32 )≈4

        如果采用8bit编码,至少能达到4倍压缩率。

 

 

参考链接:

https://github.com/Ewenwan/MVision/tree/master/CNN/Deep_Compression/quantization#1-%E6%B7%B1%E5%BA%A6%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C%E5%8E%8B%E7%BC%A9-deep-compression

posted @ 2021-10-04 06:24  吴建明wujianming  阅读(737)  评论(0编辑  收藏  举报