《UNIFusion: A Lightweight Unified Image Fusion Network》论文解读+代码【更新中】
论文+代码链接
摘要
作者提出了一个轻量化的网络模型,用来解决不同的图像融合任务(通用模型)。使用了一个引导滤波的操作,将图像分解,从而不同层级可以使用不同的融合策略,为融合策略组合提供了更多可能。其中为多聚焦图像融合任务设计了一个梯度感知融合策略。指标SOTA。
引言
引言部分,分成传统和深度方法做介绍,然后提了一下传统,逐渐过渡到深度方法的简介。最早的深度融合,还是17年的用CNN来生成聚焦决策块,手工生成的数据集,性能有限。然后说一嘴GAN和Autoencoder类型的方法。但是都是针对单一任务的,没有做到通用。
通用方法部分,IFCNN用一个景深数据集生成多聚焦图像,来做通用模型,但是同样手工数据集,面向单一任务,泛化性能有限。相比于目标不明确的融合任务,自编码器的训练更容易。
提到了GhostNet这个轻量化的网络模型,介绍了一下GhostModule这个分组卷积的操作减少计算量。
提了下梯度感知的操作, 强调了下该策略在多聚焦图像融合中有很好的表现。
相关工作
- 主要介绍了基于自编码网络的一些方法,画了个图展示了下框架。

-
说了下基于深度学习的图像融合方法的一些进展。
-
介绍了GhostMoule模块,主要是针对特征图里有冗余的通道,所以先生成本质特征图,再基于这些本质特征图生成剩余冗余部分。

方法论
首先是将源图像转换成了base层和detail层,这里的分解是通过TPAMI的一篇互引导滤波的方法实现的。base层更多保留的是除去纹理材质之后的主体成分。而Detai层就是纹理材质啦。
代码中后续会知道,这里的Detai层,作者把它加上了base层的均值做了一个调制。然后就能够把Detail层也当成是普通的图像进行操作了。
其实蛮多方法也都有这样的操作,在这篇文章投稿前TCSVT上就有看到一个针对红外和可见光图像的融合论文了。但是本文作者提出的是一个通用的模型。
分解为Base和Detail层之后,就可以针对这两个层级的信息分别用不同的融合策略进行融合了。相当于是实现了图像的解纠缠过程。

【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 地球OL攻略 —— 某应届生求职总结
· 提示词工程——AI应用必不可少的技术
· Open-Sora 2.0 重磅开源!
· 周边上新:园子的第一款马克杯温暖上架
2019-04-14 【Codeforces 25C】Roads in Berland
2019-04-14 【Codeforces 140A】New Year Table
2018-04-14 【Henu ACM Round#24 B】Gargari and Bishops
2018-04-14 【Henu ACM Round#24 A】k-String