去雨系列论文笔记

论文:Restoring An Image Taken Through a Window Covered with Dirt or Rain
首页:https://cs.nyu.edu/~deigen/rain/

傅雪阳首页:https://xueyangfu.github.io/
厦门大学智能数据分析与处理实验室:
https://xmu-smartdsp.github.io/

1. Restoring an image (ICCV 2013)

在我们拍摄照片的时候会遇到透过玻璃拍摄的场景,如窗户、车窗,或者透过玻璃自拍等,而玻璃上的污渍会影响照片的效果,这篇论文针对这类透过玻璃拍摄的照片,进行污迹或者雨渍的去除。

CNN结构同LeNet,函数表示:

$x$ 表示$N × M × 3$的RGB输入图像,激活函数使用tanh,第一个卷积层使用“valid”填充,卷积核大小为16X16(果然年代久远,还有偶数的大卷积核);最后一层使用“full”填充,卷积核大小为8;中间使用$1*1$的卷积,通道数为512,共两个中间层(L=3)。所以:W1 :16X6X3X512,W2:1X1X512X512,W3:8X8X512X512。

损失函数采用输入标签和网络输出的MSE:

输入为64X64大小的图像块,输出大小为56X56,做MSE时,和GT中间56X56对应像素相减。采用随机梯度下降(SGD)更新可训练参数:

$\eta$为学习率,参数初始化使用均值为0,方差为0.001的正态分布,偏置b初始化为0,学习率衰减因子:0.001,不使用动量和权重正则化。

测试环境:Matlab + Nvidia GTX 580;耗时:3888 × 2592 彩色图像60s,1280 × 720彩色图像7s。

2. Clearing the Skies (TIP 2017)

论文主要借鉴上一篇文章的网络结构,设计了一个改进的单图像去雨CNN结构,主要改进点:

  • CNN映射有雨图和去雨图的细节层,而不是直接在原图建立映射关系。
  • 未将网络结构复杂化,而是通过雨滴先验知识进行图像预处理,改变了优化的目标函数。
网络结构

CNN结构函数表示:

作者把雨滴视为图像高频部分,通过低通滤波(引导滤波、双边滤波或者滚动滤波)将有雨图I和其无雨图标签J分别分为基础层和细节层:

基础层为平滑后的图像,有:$I_{base} ≈ J_{base}$,所以只需要建立两个细节层的映射关系即可,损失函数由原来预测图与标签图的MSE变为了:

训练时,参数设置同第一篇论文一致,输入64X64图像块,输出56X56大小图像,

图像增强处理

网络训练完成后,去雨结果图像可以直接通过以下运算得到:

但是在雨比较大的情况下,会出现雾的情况,影响视觉效果,所以对基础层和输出的细节层做了图像增强:

3. deep detail network (CVPR 2017)

论文在上一篇的基础上进行了进一步优化,设计了一个改进的单图像去雨CNN结构,主要改进点:

  • 建立真实图像和雨图之间的负残差映射,再次缩小映射范围,优化映射空间。
  • 使用残差结构,可以使用更深的网络建立映射关系,并通过先验知识,输入图像细节层。

CNN结构函数表示:

其中,

L为CNN总层数,*表示卷积操作,BN表示batch normalization,$\sigma$表示激活函数ReLU,不使用池化操作。

利用引导滤波将雨迹图划分为细节层和基础层(同上一篇),

损失函数:

参数设置:层数L=26,优化器:SGD,权重衰减因子$10^{-10}$,动量0.9,batch size:20,初始学习率:0.1,迭代100K/200K时除以10,共迭代210K次,卷积核大小为3,个数为16。

4. Residual-Guide Network (ACM MM 2018)

同样采用负残差映射的思想设计了一个CNN单图像去雨网络ResGuideNet,主要贡献点:

  • 通过由浅入深的Block结构,获取由粗到细获取负残差输出。
  • 通过联合损失优化每个Block输出,根据集成学习的思想融合所有负残差输出。

CNN结构函数形式:

特征复用:通过密集连接复用每一个Block输出的负残差特征。

循环计算:如结构图左下角左下角所示,为平衡模型参数和性能,每个Block内部的两个卷积层采用循环计算的策略加深Block深度,函数表示:

为了避免结构加深带来的梯度消失的问题,将Block第一个 Conv+LReLU的输出加到每个子循环中:

块间融合:如结构图右下角所示:通过集成学习的思想将不同Block的预测结果concatenate在一起,最后通过1X1卷积得到最后的结果。

损失函数:对于每一个Block,采用$L_2$+SSIM loss 损失函数:

M个Block和最后merge输出的总损失:

实验细节:环境:python + TensorFlow、NVIDIA GeForce GTX 1080(8GB),初始化:Xavier,优化器:RMSProp,初始学习率: 0.001,batch size:16,迭代次数:50000,每层卷积为:16个3X3,输出层卷积,3个1X 1。

5. Lightweight Pyramid Networks (T-NNLS 2019)

为了使去雨网络更轻量化,使其适用于移动设备,作者提出了轻量级的金字塔去雨网络LPNet,参数量少于8K,主要贡献:

  • 将传统的高斯-拉普拉斯金字塔运用到CNN中,使用一个参数量少的小网络可实现很好的结果。
  • 结合多尺度、循环计算和残差学习技术,在大雨场景下,也能很好地实现单图像去雨。

CNN结构函数形式:

a、构建拉普拉斯金字塔

b、特征提取网络

c、循环模块

d、重建高斯金字塔

作者之前提出方法(方案二、方法三)通过引导滤波将图像分解成基础层和细节层,运用细节层训练可以有效减小优化空间,但是引导滤波针对雨量比较厚的图像达不到很好的细节提取效果。于是,作者使用拉普拉斯金字塔将图像分解为不同尺度的图像金字塔,最后融合不同尺度图片的处理结果。

损失函数:

实验细节

5个尺度的拉普拉斯金字塔:[0.0625, 0.25, 0.375, 0.25, 0.0625]为构建高斯金字塔的固定平滑核。

所有子网络结构相同,卷积核个数不同,$W{0,1,3,4}$卷积核大小为3x3,W2卷积核大小为1,每个子网络循环block次数T = 5,激活函数LReLUs,参数为:0.2。

使用生成的雨图,包含大雨图像和小雨图像,输入大小$80 × 80$ 图像块,Adam优化器,batch size为10,学习率:0.001,epoch为3。

想了解更多,请关注公众号:AI搞事情

posted @ 2020-03-14 19:14  fahaiAI  阅读(999)  评论(0编辑  收藏  举报