Constrained Image Splicing Detection and Localization With Attention-Aware Encoder-Decoder and Atrous Convolution阅读

出处: IEEE Access Digital Object Identifier,2020

作者:刘亚奇

摘要

解决 CISDL 约束图像拼接检测定位问题,在 DMAC 基础上,加入 self-attention ,称为attentionDM

网络结构

如图1 ,采用 encoder-decoder 结构。

Encoder 部分采用了 VGG 结构的变体,去掉了 VGG 的最后两个 maxpool 层,把 convolutional block 5 替换成 atrous convolution 。采用 skip architecture 分别输出三组大小相同的 feature map ,记作 \(F_{3}\)\(F_{4}\)\(F_{5}\)

Attention-aware correlation computation 部分包括 attention block ,normalization operations 和 correlation computation ,输出 correlation maps

Decoder 部分采用了 ASPP 结构,然后经过卷积和上采样输出最终mask

Snipaste_2020-03-14_18-35-11

L2 noralization

L2 范数:向量元素的平方和再开平方
Snipaste_2020-03-14_20-40-57

L2 归一化:向量除以它自己的L2范数

目的: 把数据限定在一定的范围内

跳跃结构的某一层输出的 feature map 记作\(F^{(1)}\) \(F^{(2)}\) (分别对应输入的 P 和 D),有 \(\vec f^{(1)}(i_1,j_1)\in F^{(1)}\)\(\vec f^{(2)}(i_2,j_2)\in F^{(2)}\) ,进行归一化 ,如公式4

Snipaste_2020-03-14_19-00-48

归一化后,得到特征图 \(\overline{F}^{(1)}\) \(\overline{F}^{(2)}\) , \(\overline{F}^{(1)}\) \(\overline{F}^{(2)}\) , \(\overline{F}^{(1)}\) \(\overline{F}^{(2)}\)

channal attention block

目的:不同层的特征图分配注意力 ,关注细节信息

 

归一化后的特征图 \(\overline{F}^{(k)}\in\mathbb{R}^{h\times w\times c}\) ,如: \(\overline{F}^{(1)}\)

展开成 \(\overline{F}^{k}_{flat}\in\mathbb{R}^{d\times c}\) , d=h×w ,如:\(\overline{F}^{k}_{flat}\)

输入 embedding network 来提取高阶低维特征

embedding network:目的:降维 论文参考A structured self-attentive sentence embedding

公式 2 如下,经过三层神经网络前向传播 (w和b哪来的)

Snipaste_2020-03-15_11-03-42

其中

\(W^{E}_{1}\in\mathbb{R}^{\frac{d}{r}\times d}\)\(W^{E}_{2}\in\mathbb{R}^{\frac{d}{r^{2}}\times \frac{d}{r}}\) 是参数矩阵,r 是 reduction ratio ,本文 r=4

\(b^{E}_{1}\in\mathbb R^{\frac{d}{r}}\) , \(b^{E}_{1}\in\mathbb R^{\frac{d}{r^{2}}}\) 是对应的 bias

\(\delta\) 是 relu 函数

计算得到embeded feture \(E^{(k)}\in\mathbb{R}^{\frac{d}{r^{2}}\times c}\) ,如: \(E^{(k)}\)

再根据图1b

Snipaste_2020-03-15_11-02-14

和公式3 ,两层前向传播加 softmax

Snipaste_2020-03-15_11-04-11

其中

\(W^{(A)}_{1}\in\mathbb{R}^{\frac{d}{r^{3}}\times \frac{d}{r^{2}}}\)\(W^{(A)}_{2}\in\mathbb{R}^{\frac{d}{r^{3}}}\)

得到权重向量 \(a^{(k)}\in\mathbb{R}^{c}\) ,如:\(a^{(k)}\)

然后公式5

Snipaste_2020-03-15_11-04-25

根据权重为 \(\overline{F}^{(1)}\) 分配注意力 ,得到 \(\ddot{F}^{(1)}\)

从而得到图1 的 normalized attention-weighted feature maps

correlation computation

使用点积计算 \(\ddot{F}^{(1)}\) \(\ddot{F}^{(2)}\) 相关性,如公式6

Snipaste_2020-03-15_11-05-07

得到 correlation maps ,再进行 avgpool 、maxpool 、srtpool (公式8、9、10),拼接得到Snipaste_2020-03-14_20-00-48

相关性计算总过程记作公式11

Snipaste_2020-03-15_11-05-37

得到 \(\ddot{F}^{(1)}\) \(\ddot{F}^{(2)}\) 的相关性 \(\widehat{C}^{(12)}\) \(\widehat{C}^{(11)}\) \(\widehat{C}^{(21)}\) \(\widehat{C}^{(22)}\) (按DMAC说,分别是8维),再把两两拼接,得到本层的相关图 \(C^{(1)}\) \(C^{(2)}\) (按DMAC,分别是16维)

再把三层的 \(C^{(1)}\) \(C^{(1)}\) \(C^{(1)}\) 拼接 (按DMAC,分别是48维,然后直接输入了ASPP)

然后进行 relu 函数和 L2 归一化

终于得到 \(I^{(1)}\)对应的特征图\(\overline{C}^{(1)}\)

整个 attention-aware correlation computation 计算过程如算法1

Snipaste_2020-03-14_20-05-55


这里第 20、21 行,\(C^{(1)}\) \(C^{(2)}\)就是 DMAC 的 ASPP 的输入,其中\(C^{(1)}_{l}\) 是16维,所以\(C^{(1)}\) \(C^{(2)}\) 分别是48维。

经过卷积后,输出的维数 = 卷积用的 fiters 的数量 ,我推测为96个


ASPP

目的 获取多尺度特征

atrous rate ={6,12,18},然后把结果拼接,再输入卷积和上采样,恢复高分辨率,生成mask

  做窗口滑动卷积的时候,卷积值就代表了整个窗口的特征。因为滑动的窗口间有大量重叠区域,出来的卷积值有冗余,进行最大pooling或者平均pooling就是减少冗余。减少冗余的同时,pooling也丢掉了局部位置信息,所以局部有微小形变,结果也是一样的。
pooling层通常的作用是:减少空间大小,减少网络参数,防止过拟合。
原文: https://www.cnblogs.com/makefile/p/pooling.html © 康行天下
  上采样目的是放大图像,一般采用插值方法,这里没说具体是什么

图2是encoder-decoder 示意图

Snipaste_2020-03-14_20-16-10

实验

datasets

训练: 自己合成的synthetic testing foreground pairs ,划分为难中易三个子集,每个子集3000对图像

测试: the paired CASIA dataset、The MFC2018 dataset、 The PS-Battles dataset

metrics

IoU

MCC

NMM

实验环境

with Intel(R) Core(TM) i7-5930K CPU @ 3.50GHz, 64GB RAM and a single GPU (TITAN X)

analysis

Snipaste_2020-03-14_20-22-15

表2是对比试验,第三行分别表示直接使用特征进行相关性计算、加入归一化、加入注意力,可见attentionDM效果好

表3是滑动窗口实验,可见加入滑动窗口对 attentinDM 没有太大作用,因为attention相比于DMAC已经提高了网络对于小窗口的检测能力

 

作者又进行了 resnet 作为提取器和 VGG 的对比试验,结果发现使用 resnet 可以把性能提升一点点,但是参数量增长太多了,所以不建议用 resnet 做提取器
最后是attentionDM在几个数据集上的定性表现。

posted @ 2020-03-15 10:53  clownn  阅读(530)  评论(0编辑  收藏  举报