Towards Learning Structure via Consensus for Face Segmentation and Parsing

motivation

以前的人脸分割方法都旨在产生复杂的框架,或者复杂的人脸增强器来同化模糊,或者用对抗训练。我们采用了一种可选择的路径来进行强壮的人脸分割和解析

contribution

(1)通过3维投影使用强先验计算得到完整的人脸形状,与事先存在的人脸分割网络之间的差异来进行分解遮挡

(2)利用前面分解的对象的连接组件,将他们作为约束来构造一个新的损失函数,该函数仍然执行一个密集的分类,但通过共识学习在网络中加强结构

(3)最后展示我们的方法对于人脸解析问题是一个通用的工具

 

 

 

 

 f是全脸轮廓的掩膜,fooc是人脸分割的掩膜。p是残差。p最后是由先腐蚀操作再膨胀操作的开运算(其作用是:分离物体,消除小区域。本文中则把红色部分的blob给消除掉了)得到的。

(2)式课看做分段函数,C(s)相当于y上的自变量。当C(s)取值不同时,y(s)代表的含义不同

 

 s=1表示face上的像素的位置,p(s)表示face上的softmax概率,y(s)表示face上的真实值。H为交叉熵。则(3)式是指交叉熵损失函数即:所有像素的图像的预期损失

 

(a)符号说明

(b)常规训练以像素为方向,独立进行,并密集地强制每个像素适合标签(没有对象平滑度的概念)

(c)这导致了在测试时对看不见的物体的稀疏预测

(d)图像的像素级标签

(e)我们在一个blob E[p]中强制对标签进行预期预测,但保证每个像素与平均值没有偏差;

(f)该网络是更好的正则化分割与较少的稀疏预测

We defifine the expected prob-ability E[p] on a blob c as:

 p^c表示在斑点c处所有像素的平均条件概率

p(s)表示整个图像上所有像素的预测概率

 

 

 

 DKL表示相对熵(KL散度):

如果对于同一个随机变量X有两个单独的概率分布P(x)和Q(x),则我们可以使用KL散度来衡量这两个概率分布之间的差异

where α, β are two constant parameters controlling the trade-off between matching the labels and ensuring consensus and DKL denotes the Kullback-Leibler divergence.
Following the notation of Section 3.1, and putting this all together, indicating all the the blobs (background B, face F, occlusions O) as C, our method fifinally optimizes:

 

 

posted @ 2020-07-15 21:18  小孢子  阅读(471)  评论(0编辑  收藏  举报