Conditional Probability Models for Deep Image Compression

深度神经网络被训练来作为图像压缩的自动编码器是一个前沿方向,面临的挑战有两方面——量化(quantization)和权衡reconstruction error (distortion) and entropy (rate),这篇文章关注后者。
主要思想是使用上下文模型直接对潜在表示的熵建模;3D-CNN一个学习自动编码器潜在分布的条件概率模型。训练过程中,自编码器使用上下文模型来预测估计其表示(representation)的熵,同时更新上下文模型来学习潜在表示中符号之间的依赖关系。在MS-SSIM指标上,该方法比其他方法表现更好。

Introduction

  • 图像压缩是指用尽可能小的储存去表示图像.(这个说法很妥帖)。而在有损压缩中我们使用离散度数据来表示图像,由于离散化是不可微的,所以这对基于梯度的优化方法提出了挑战。离散化后信息论告诉我们,比特率是结果符号的熵?(存疑)。 该文章的重点就是如何对熵H进行建模。
  • 该方法基于上下文模型
posted @   浪矢-CL  阅读(46)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律
点击右上角即可分享
微信分享提示