HAWQ: Hessian AWare Quantization of Neural Networks With Mixed-Precision

Dong Z., Yao Z., Gholami A., Mahoney M. W. and Keutzer K. HAWQ: Hessian aware quantization of neural networks with mixed-precision. ICCV, 2019.

本文利用 Hessian 的 top eigenvalues 来定位对应 block 所需要的量化 bitwidth, 并利用 multi-state fin-tuning 恢复精度.

HAWQ (Hessian AWare Quantization)

  • 上图展示了, 不同 block 所对应的首特征值以及在添加扰动下损失的变化情况. 很明显, 首特征值越大的 block 往往对于扰动更加敏感, 所以理应用更多的 bitwidth 去量化.

  • 于是, 作者采用如下的指标 (λi 表示第 i 个 block 的 Hessian 矩阵的首特征值, ni 表示 block 中的参数量):

    Si=λi/ni,

    对不同 Block 进行排序, 然后靠前的采用更大的 bitwitdth. 即首特征值越大/参数量越小的 block 用更大的 bitwidth 进行量化.

  • 之后, 通过 multi-stage fine-tuning 来恢复精度, 微调的顺序根据误差来排序:

    Ωi=λiQ(Wi)Wi22.

posted @   馒头and花卷  阅读(14)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
点击右上角即可分享
微信分享提示