Conditional Probability Models for Deep Image Compression
深度神经网络被训练来作为图像压缩的自动编码器是一个前沿方向,面临的挑战有两方面——量化(quantization)和权衡reconstruction error (distortion) and entropy (rate),这篇文章关注后者。
主要思想是使用上下文模型直接对潜在表示的熵建模;3D-CNN一个学习自动编码器潜在分布的条件概率模型。训练过程中,自编码器使用上下文模型来预测估计其表示(representation)的熵,同时更新上下文模型来学习潜在表示中符号之间的依赖关系。在MS-SSIM指标上,该方法比其他方法表现更好。
Introduction
- 图像压缩是指用尽可能小的储存去表示图像.(这个说法很妥帖)。而在有损压缩中我们使用离散度数据来表示图像,由于离散化是不可微的,所以这对基于梯度的优化方法提出了挑战。离散化后信息论告诉我们,比特率是结果符号的熵?(存疑)。 该文章的重点就是如何对熵H进行建模。
- 该方法基于上下文模型
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律