a new idea

RD性能:
结合图像重压缩的MLCC模型以及
自编码器中的注意力机制
The Devil Is in the Details: Window-based Attention for Image Compression(全注意力机制 可以换成ViT)
Joint Global and Local Hierarchical Priors for Learned Image Compression(CNN+Transfomer)

做剪枝important maps
Learning Convolutional Networks for Content-weighted Image Compression

解码速度:
《Channel-wise Autoregressive Entropy Models For Learned Image Compression》
提出通道上下文解码

《Checkerboard context model for efficient learned image compression》
提出棋盘格上下文模型

《ElIC:Efficient learned image compression with unevenly grouped spacechannel contextual adaptive coding》
提出不均匀通道上下文解码,并与棋盘模型相结合。

《High-Efficiency Lossy Image Coding Through Adaptive Neighborhood Information Aggregation》
在特征提取的变换阶段引入注意力机制,并在解码阶段使用多阶段上下文模型(可学习通道分组+改进的棋盘模型)。

QARV: Quantization-Aware ResNet VAE for Lossy Image Compression
一个共享编解码模块的模型,多层次图像压缩方法。

posted @   浪矢-CL  阅读(23)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 如何调用 DeepSeek 的自然语言处理 API 接口并集成到在线客服系统
· 【译】Visual Studio 中新的强大生产力特性
· 2025年我用 Compose 写了一个 Todo App
历史上的今天:
2017-03-31 斐波那契数列 !有疑惑
点击右上角即可分享
微信分享提示