image restoration(IR) task

一般的,image restoration(IR)任务旨在从观察的退化变量$y$(退化模型,如式子1)中,恢复潜在的干净图像$x$

$y \text{} =\text{}\textbf{H}x\text{}+\text{}v $

where $\textbf{H}$denotes 退化矩阵,$\textbf{v}$denotes 加性高斯白噪声(additive white Gaussian noise) with 标准差$\sigma$

指定不同的退化矩阵$\textbf{H}$,对应着不同的IR任务:

-- 当$\textbf{H}$是一个恒等矩阵,IR任务对应着图像去噪(image denoising)

-- 当$\textbf{H}$是一个模糊算子(blurring operator),IR任务对应着图像去模糊(image deblurring)

-- 当$\textbf{H}$是一个模糊和下采样的复合算子(composite operator of blurring and down-sampling),IR任务对应着图像超分辨率(image super-resolution)

IR 是一个病态逆问题(ill-posed inverse problem),先验(prior)被叫做正则化项(regularization),需要被采取去约束解决空间. 从贝叶斯的观点, 需要被推导出的潜在的干净图像$\hat{x}$能够通过解决一个MAP(maximum A posteriori )问题得到:

$\hat{x}\text{}=\text{}$ argmax$_x \text{}$log$p(\textbf{y}|\textbf{x})\text{}+\text{}$log$p(\textbf{x})\text{}\text{}\text{}(1)$

其中log$$p(\textbf{y}|textbf{x})代表着$y$的log-似然,log$p(x)$是$x$的先验,更加正式的,公式一 被重新写:

$\hat{x} = $argmin$_{x}\frac{1}{2}||\textbf{y} - \textbf{H}x||^{2} + \lambda\Phi(x)\text{}\text{}\text{}(2)$

其中解法是最小化一个能量函数,由三个部分组成 数据保真项=$\frac{1}{2}||y\text{}\text{}-\textbf{H}x||^{2}$,一个正则化项$\Phi(x)$ 和一个平衡(trade-off)参数$\lambda$. 数据保真项确保了这个解法是通过了这个退化过程,正则化项强制执行输出所需的属性;

To solve Eqn.(2) , have two main categories methods:

--model-based optimization methods:  aim to directly solve Eqn2 使用一些耗时的迭代传播(time-comsuming iterative inference)

--discriminative learning methods: 通过优化包含退化干净(degraded-clean pairs )图像对的训练集上的损失函数来学习先验参数$\Theta$和紧凑(compact)推理,目标被给出:

min$_{\Theta}\text{}\textit{l}(\hat{x},x)$      $s.t.$       $\hat{x}\text{}=\text{}$arg min$_{x}\frac{1}{2}||y - \textbf{H}x||\text{}+\text{}\lambda\Phi(x;\Theta))$     (3)

因为这个推理是被MAP估计所指导,所以我们将这种方法称作为MAP推理指导的判别式学习方法(MAP inference guided discriminative learning method); 

使用一个预先定义的非线性函数:

$\hat{x}\text{}\text{}f(y,\textbf{H};\Theta)$==》注意这种函数内分号的形式,$\Theta$只是参数,前面那个才是真正的自变量,f(x;θ)是关于x的函数,其中θ是参数,x才是自变量,所以f(x;θ)是关于x的一元函数.
来替换MAP推理,我们可以把朴素的判别学习方法看作是Eqn3的一般情况。

--model-based optimization methods:  通过指定退化矩阵$\textbf{H}$来灵活的处理不同的IR任务

--discriminative learning methods: 通过使用确定的退化矩阵训练数据来学习模型

SO====》由以上两点可以得到,判别式学习方法常常限定在一些特定的任务如 MLP SRCNN DCNN;

图像降噪认为model-based method 能够处理不同噪声水平的图像,如BM3D WNNM, 然而判别学习方法只能够针对不同的噪声水平训练不同的模型。


 使用判别式学习方法的优缺点:

缺点: 灵活性较差

优点: 快速的测试速度; 由于联合优化(joint optimization)和端到端的训练(end-to-end training),具有前景性的表现;

使用model-based optimization 方法的优缺点:

缺点:时间消耗time-consuming with 复杂的先验 sophisticated prior 为了好的表现.

SO ===》 非常有吸引力的是利用他们各自的优点去研究他们的集成

 


 

Method

在变量分割技术的辅助下,如交替方向乘子法(alternating direction method of multiplier,ADMM)和半二次分割法(half quadratic splitting),使得有可能独立的处理 保真项(fidelity term)和正则化项(regularization term). 

而且,正则化项仅仅对应于一个去噪子问题!!!所以,这使得能够将任何的判别式降噪器集成到model-based 优化方法中。

--不采用学习一个MAP推导指导的判别模型,而是采取一个朴素的CNN去学习降噪器;

-- 已学习的CNN降噪器作为一个模块嵌入到model-based 优化方法中,去解决inverse 问题;

Image Restoration with Denoiser prior

--之前有借助ADMM变量分离技术的即插即用的先验架构;

--之前有提出使用HQS技术进行图像的降噪和去模糊的;

基于以上一些降噪先验的related work, 我们可以看出,降噪器先验可以通过多种方法插入迭代方案(iterative scheme);

迭代方案涉一个保真项相关子问题和一个降噪子问题;


 

 

 

posted @ 2019-08-15 09:54  陈柯成  阅读(843)  评论(0编辑  收藏  举报