Joint Autoregressive and Hierarchical Priors for Learned Image Compression

abstruct

最近的图像压缩模型基于自编码器,学习近似可逆的映射(从像素到量化的可逆表示),这些与熵模型(潜在表示的先验)结合,可以与标准算术编码算法一起使用产生压缩比特流。与简单的全因子先验相比,分层熵模型可以利用更多潜变量中的结构,从而在保存端到端优化的同时提高压缩性能。众所周知,自回归模型会带来较大的计算代价,但是在压缩性能方面自回归模型和分层先验模型是互补的,它们的共用效果很好。

introduction

在深度学习领域,变换通常使用卷积神经网络,他近似非线性函数,有可能将像素映射到传统线性变化更可压缩的潜空间。压缩的目的是减小发送方和接收方共享的先验概率模型(熵模型)下表示的熵。训练目标是最小化比特流的预期长度以及重建图像相对于原始图像的预期失真

posted @ 2023-11-23 20:43  浪矢-CL  阅读(59)  评论(0编辑  收藏  举报