人脸生成:Beyond Face Rotation: Global and Local Perception GAN

Beyond Face Rotation: Global and Local Perception GAN for Photorealistic and Identity Preserving Frontal View Synthesis

Motivation

基于单幅人脸图像的真实感正视图合成在人脸识别领域有着广泛的应用,主要方法有两种:

  1. 提取不变的特征进行映射
  2. 从大姿态人脸进行恢复(拟合3D模型然后投影回2D正脸、深度学习的数据驱动方法)

这些方法存在的问题:

  1. 第一种方法受特征一致性与可分辨性的约束,对于大姿态的旋转处理不好
  2. 深度学习方法输出图片细节不好,容易模糊

Contribution

  • 提出双路径生成对抗网络(TP-GAN),可同时感知全局结构和局部细节。

  • 增加约束,引入对抗性损失、对称性损失和身份保持损失的组合。

  • 输出不是中间特征,而是保留身份的合成图像。可进行人脸识别和属性估计等后续任务。

Approach

双路径生成对抗网络(TP-GAN)

在这里插入图片描述

  • 局部网络聚焦人脸各个属性细节,逐一生成然后进行Fusion
  • 全局网络注重全局结构

设计原因是作者认为单一生成器不能既学习全局结构,又能很好地学习到细节部分,因为这两个任务对于生成器来说权重共享,实际上是不能兼顾平衡的。
在这里插入图片描述

多约束损失

生成器的损失为交叉熵+综合损失, I n P I_n^P InP I n F I_n^F InF是统一身份的侧正面图像对, y n y_n yn I n P I_n^P InP的真实的身份
在这里插入图片描述
综合损失:
在这里插入图片描述
具体的:

  1. Pixel-wise Loss
    L1距离像素损失,用于身份保持
    在这里插入图片描述
  2. Symmetry Loss
    这里利用了生成人脸的先验知识,生成的人脸应该对称
    在这里插入图片描述
  3. Adversarial Loss
    保持图片真实性,尽量使鉴别器无法鉴别生成的图片
    在这里插入图片描述
  4. Identity Preserving Loss
    在Pixel-wise Loss上进一步加强个人身份特征,保持图片身份肉眼感知的一致,用的是基于Light CNN的感知损失,只用了最后两层
    在这里插入图片描述

最后的网络结构
在这里插入图片描述

Experiments

分为四个部分,进行定性,定量比较

  1. 人脸合成效果
    直观与SOTA方法比较,并特别说明了大视角恢复的性能

  2. 身份保留效果
    将合成的人脸用于身份匹配与性别分类

  3. 特征提取效果
    说明生成图片特征区分良好

  4. 算法效果
    这部分为消融实验,说明算法各部分的贡献

Discussion

个人总结本文的主要贡献在于:

  1. 全局和局部思想的考量,并应用在了生成器而不是鉴别器上
  2. 考虑了人脸的先验知识,引入对称损失

References

Huang, R., Zhang, S., Li, T., & He, R. (2017). Beyond face rotation: Global and local perception GAN for photorealistic and identity preserving frontal view synthesis. ArXiv, 2439–2448.

posted @ 2022-03-23 20:41  Janspiry  阅读(106)  评论(0编辑  收藏  举报