Fork me on GitHub

Siamese网络

1.       对比损失函数(Contrastive Loss function)

孪生架构的目的不是对输入图像进行分类,而是区分它们。因此,分类损失函数(如交叉熵)不是最合适的选择,这种架构更适合使用对比函数。对比损失函数如下:

 

 

(以判断图片相似度为例)其中Dw被定义为姐妹孪生网络的输出之间的欧氏距离。Y值为1或0。如果模型预测输入是相似的,那么Y的值为0,否则Y为1。m是大于0的边际价值(margin value)。有一个边际价值表示超出该边际价值的不同对不会造成损失。

Siamese网络架构需要一个输入对,以及标签(类似/不相似)。

2.       孪生网络的训练过程

(1)    通过网络传递图像对的第一张图像。

(2)    通过网络传递图像对的第二张图像。

(3)    使用(1)和(2)中的输出来计算损失。

 

 

  其中,l12为标签,用于表示x1的排名是否高于x2。

训练过程中两个分支网络的输出为高级特征,可以视为quality score。在训练时,输入是两张图像,分别得到对应的分数,将分数的差异嵌入loss层,再进行反向传播。

(4)    返回传播损失计算梯度。

(5)    使用优化器更新权重。

3.       基于Siamese网络的无参考图像质量评估:RankIQA

3.1          参考文献

https://arxiv.org/abs/1707.08347

3.2          RankIQA的流程

(1)    合成失真图像。

(2)    训练Siamese网络,使网络输出对图像质量的排序。

(3)    提取Siamese网络的一支,使用IQA数据集进行fine-tune。将网络的输出校正为IQA度量值。fine-tune阶段的损失函数如下:

 

 

训练阶段使用Hinge loss,fine-tune阶段使用MSE。

训练时,每次从图像中随机提取224*224或者227*227大小的图像块。和AlexNet、VGG16有关。在训练Siamese network时,初始的learning rate 是1e-4;fine-tuning是初始的learning rate是1e-6,每隔10k步,rate变成原来的0.1倍。训练50k次。测试时,随机在图像中提取30个图像块,得到30个分数之后,进行均值操作。

本文如何提高Siamese网络的效率:

假设有三张图片,则每张图片将被输入网络两次,原因是含有某张图片的排列数为2。为了减少计算量,每张图片只输入网络一次,在网络之后、损失函数之前新建一层,用于生成每个mini-batch中图片的可能排列组合。

使用上述方法,每张图片只前向传播一次,只在loss计算时考虑所有的图片组合方式。

本文使用的网络架构:Shallow, AlexNet, and VGG-16。

4.       Siamese网络的开源实现

4.1          代码地址

https://github.com/xialeiliu/RankIQA

4.2          RankIQA的运行过程

4.2.1            数据集

使用两方面的数据集,一般性的非IQA数据集用于生成排序好的图片,进而训练Siamese网络;IQA数据集用于微调和评估。

本文使用的IQA数据集:

(1)    LIVE数据集:http://live.ece.utexas.edu/research/quality/ 对29张原始图片进行五类失真处理,得到808张图片。Ground Truth MOS在[0, 100]之间(人工评分)。

(2)    TID2013:25张原始图片,3000张失真图片。MOS范围是[0, 9]。

本文使用的用于生成ranked pairs的数据集:

(1)    为了测试LIVE数据集,人工生成了四类失真,GB(Gaussian Blur)、GN(Gaussian Noise)、JPEG、JPEG2K

(2)    为了在TID2013上测试,生成了17种失真(去掉了#3, #4,#12, #13, #20, #21, #24)

Waterloo数据集:

包含4744张高质量自然图片。

Places2数据集:

作为验证集(包含356种场景,http://places2.csail.mit.edu/ ),每类100张,共35600张。

两种数据集的区别:

python generate_rank_txt_tid2013.py生成的是tid2013_train.txt,标签只起到表示相对顺序的作用,即,标签为{1, 2, 3, 4, 5};python generate_ft_txt_tid2013.py生成的是ft_tid2013_test.txt,其中的标签是浮点数,表示图片的质量评分。

 

4.2.2            训练和测试过程

从原始图像中随机采样子图(sub-images),避免因差值和过滤而产生的失真。输入的子图至少占原图的1/3,以保留场景信息。本文采用227*227或者224*224的采样图像(根据使用的主干网络而不同)。

训练过程使用mini-batch SGD,初始学习率1e-4,fine-tune学习率1e-6。

共迭代50K次,每10K次减小学习率(乘以0.1),两个训练过程都是用l2权重衰减(正则化系数lambda=5e-4)。

实验一:本文首先使用Places2数据集(使用五种失真进行处理)训练网络(不进行微调),然后在Waterloo数据及上进行预测IQA(使用同样的五种失真进行处理)。实验结果如图2所示。

 

 

实验二:hard negative mining

难分样本挖掘,是当得到错误的检测patch时,会明确的从这个patch中创建一个负样本,并把这个负样本添加到训练集中去。重新训练分类器后,分类器会表现的更好,并且不会像之前那样产生多的错误的正样本。

本实验使用Alexnet进行。

实验三:网络性能分析

LIVE数据集,80%训练集,评价指标LCC和SROCC。VGG-16的效果最好。

4.2.3            RankIQA对数据集的处理过程

将原始图像文件放在data/rank_tid2013/pristine_images路径下,然后运行data/rank_tid2013/路径下的tid2013_main.m,进而生成排序数据集(17种失真形式)。

4.3          运行指令

4.3.1            Train RankIQA

To train the RankIQA models on tid2013 dataset:

./src/RankIQA/tid2013/train_vgg.sh

 

To train the RankIQA models on LIVE dataset:

./src/RankIQA/live/train_vgg.sh

 

FT

To train the RankIQA+FT models on tid2013 dataset:

./src/FT/tid2013/train_vgg.sh

 

To train the RankIQA+FT models on LIVE dataset:

./src/FT/live/train_live.sh

 

4.3.2            Evaluation for RankIQA

python src/eval/Rank_eval_each_tid2013.py  # evaluation for each distortions in tid2013

python src/eval/Rank_eval_all_tid2013.py   # evaluation for all distortions in tid2013

Evaluation for RankIQA+FT on tid2013:

python src/eval/FT_eval_each_tid2013.py  # evaluation for each distortions in tid2013

python src/eval/FT_eval_all_tid2013.py   # evaluation for all distortions in tid2013

Evaluation for RankIQA on LIVE:

python src/eval/Rank_eval_all_live.py   # evaluation for all distortions in LIVE

Evaluation for RankIQA+FT on LIVE:

python src/eval/FT_eval_all_live.py   # evaluation for all distortions in LIVE

5.       代码调试过程

5.1          Python无法导入某个模块ImportError:could not find module XXX

解决方案:

配置环境变量:export PYTHONPATH=path/to/modules

 

posted @ 2019-03-28 10:42  stardsd  阅读(3074)  评论(4编辑  收藏  举报