Efficient Learned Lossless JPEG Recompression

简介

本文是GuoLina以及HeDailan商汤团队关于重压缩的第二篇论文,这次该团队将注意力放到了加速解码上。

创新点

提出Multi-Level Parallel Conditional Modeling (ML-PCM)在不同颗粒度上并行解码。

模型设置

首先还是将DCT系数进行重排
为了支持多种子采样格式,分别为色度分量和亮度分量设计了两个独立的网络,如图2所示
image
从图中可以看到两条网络都是由一个hyper-network和parallel context model。(超网络提供边信息来学习全局相关性;上下文模型则从已解码的相邻符号中学习局部信息)
Y分量是先进行space-to-depth,然后被压缩。
CbCr分量是先串联,然后再压缩。

CCCM compressed checkerboard context model

CbCr的上下文模型其实还是用的棋盘上下文模型
image
具体的网络实现为,把CbCr2和CbCr3作为anchor
image

PPCM pipeline parallel context model

Y分量的上下文模型有点类似于上篇文章的MLCC模型,将输入数据分为4行9列,每一列的深度分别为28, 8, 7, 6, 5, 4, 3, 2 and 1。
image
第一行的概率计算公式为
image
第二行到第四行都是以第一行为先验的,它们并行运行:
image

Shift Context

实验设置

训练数据集:the largest 8000 images chosen from the ImageNet.
测试数据集:Kodak, DIV2K, CLIC professional and CLIC mobile.
具体细节: 训练图像被随机裁剪为256*256的块,然后提取量化后的DCT系数。
然后分别优化Y-Net和CbCr-Net。其中,Y-Net的训练分为三个阶段:1:训练超网络 2:训练PPCM捕捉上下文信息 3:进行微调。
最后使用TensorRT库部署了模型,利用 8 位量化《Learned Step Size Quantization》来进一步加速推理,从而实现了与全精度模型相当的压缩性能(Y-Net 仅降低约 1%,CbCrNet 仅降低 0.7%)。

结果

posted @ 2024-03-15 16:17  浪矢-CL  阅读(7)  评论(0编辑  收藏  举报