论文:https://doi.org/10.1016/j.inffus.2022.10.034
代码:https://github.com/Xinyu-Xiang/DIVFusion
最近Information Fusion接收了一篇题为《DIVFusion: Darkness-free infrared and visible image fusion》的文章。在此之前,图像融合领域一直徘徊在利用互补信息,设计loss,引入新的融合规则等。但是忽视了低光场景下可见光信息退化的问题,这将严重影响互补信息的聚合,也使得融合算法在极端条件下无法产生令人满意的融合结果。
DIVFusion一文中给出了一个很新的思想来解决低光下的融合问题,即是耦合互促低光图像增强与融合,以获得良好视觉感知的融合图像。目前该论文可以通过以下链接免费下载:DIVFusion: Darkness-free infrared and visible image fusion 感兴趣的朋友可以尽快下载,只有不到60天的免费下载机会。
图像融合系列博客还有:

红外与可见光图像融合是一项重要的图像增强技术,其目标是在极端环境下生成目标明显、纹理丰富的高质量融合图像。然而,目前的图像融合方法都是针对正常照明下的红外和可见光图像设计的。在夜景中,现有的方法由于可见光图像严重退化,导致纹理细节较弱,视觉感知较差,影响了后续的视觉应用。为此,本文提出了一种无黑暗的红外与可见光图像融合方法(DIVFusion),合理地照亮黑暗,促进互补信息聚合。

上述为DIVFusion整体流程图,主要分为两阶段训练

SIDNet用于自监督重构原始图像,并同时,剥离退化照度,得到的特征图用于促进后续融合网络

上述两者均为作者所提TCEFNet中的组成部分,分别用于细粒度增强与对比度提升,详见原文以及代码。
实验设计方面,作者首先在LLVIP,MSRS以及TNO数据集上进行定量和定性的对比实验,然后也给出了运行效率的对比分析以及相关泛化实验和消融实验。




为了充分证明所提出的方法能够很好地耦合低光增强任务和图像融合任务,作者还用一些SOAT的低光图像算法作为预处理来提前增强可见光图像;相关结果也展示如下:




本文提出了一种基于视觉增强的夜间红外与可见光图像融合算法,实现了图像融合与图像增强的耦合互促。具体而言,SIDNet设计的目的是将退化光照特征与混合光照特征分离,避免源图像重要信息的丢失。然后,我们使用包含两个特殊模块的TCEFNet实现融合过程中的对比度增强和纹理保留。考虑到增强和融合任务的不相容性导致的颜色失真,设计了一种颜色一致性损失来调整融合图像的颜色分布。与最先进的方法进行了定性和定量的比较,验证了我们的方法的优越性,包括视觉感知、场景亮度和互补信息集成。两阶段融合实验表明,该方法有效地缓解了融合和增强任务之间的不兼容性。此外,行人检测实验证明了我们的DIVFusion在高级计算机视觉任务中的潜力。
本文仅仅考虑到低光对整个红外可见光图像融合的影响,个人感觉红外可见光图像融合未来的研究方向,可以着手于多种退化情况,也即是极端条件下的图像融合,例如在融合过程中同时解决可见光图像中过曝和过暗的问题。现有的融合方法都难以消除过度曝光效应。一种可能的解决方法是利用高斯分布对点光源进行建模,并设计一个分解网络,将过曝光映射从可见图像中剥离出来。由于过曝光区域可见光图像中缺乏有效信息,在融合过程中我们将从红外图像中整合更多的信息来固定过曝光区域。未来,有可能将进一步设计一个照度调整模块,以解决红外和可见光图像融合任务中的低光和过度曝光退化问题。
DIVFusion 为极端条件下的融合提供了可能的方案,正如前面所说的可以在设计图像融合模型的时候进一步考虑其他的极端条件,这与图像融合的本质相契合。
DIVFusion原论文:Tang, Linfeng, Xinyu Xiang, Hao Zhang, Meiqi Gong, and Jiayi Ma. “DIVFusion: Darkness-free infrared and visible image fusion.” Information Fusion 91(2023): 477-493.
如有疑问可联系:2458707789@qq.com; 备注 姓名+学校