【论文阅读】Facial Expression Recognition Under Partial Occlusion from Virtual RealityHeadsets based on Transfer Learning
1.这篇文章究竟讲了什么问题?
基于迁移学习的虚拟现实头罩部分遮挡下面部表情识别
2.这是否是一个新的问题?
不是一个新问题,文献[11]也研究了该问题
3.这篇文章要验证一个什么科学假设?
论文聚焦于模拟佩戴VR头罩下,面部被部分遮挡情况下的人脸表情识别。
4.有哪些相关研究?如何归类?谁是这一课题在这领域值得关注的研究员?
面部被遮挡下的人脸识别研究有很多,参考论文中Relatedworks部分,一些方法试图通过重建被遮挡的部分来最小化遮挡影响。现在有很多工作利用卷积神经网络来处理遮挡问题。
可以参考遮挡下人脸识别的综述:
(1)L. Zhang, B. V erma, D. Tjondronegor and V . Chandran, ”Facial Expression Analysis under Partial Occlusion: A Survey,” ACM Computing Surveys (CSUR), vol. 51, no. 2, 2018.
而VR下的情感识别主要有:
(1)M.-I. Georgescu and R. T. Ionescu,”Recognizing Facial Expressions of Occluded Faces using Convolutional Neural Networks,” in International Conference on Neural Information Processing ICONIP , 2019.
(2)S. Hickson, N. Dufour, A. Sud, V . Kwatra and Irfan Essa,”Eyemotion: Classifying facial expressions in VR using eye-tracking cameras,” in IEEE Winter Conference on Applications of Computer Vision (W ACV), Hawaii, 2019.
5.论文中提到的解决方案之关键是什么?
仿真遮挡的几何模型,应用到现有数据集上,以及采用迁移学习来提高识别精度。
6.论文中的实验是如何设计的?
对于每个模型VGG-Face和Resnet50,在每个数据集上分别使用5倍交叉验证训练网络,并报告精度。包括scratch, transfer learning
7.用于定量评估的数据集是什么?代码有没有开源?
FER+, AffectNet, RAF-DB, 代码开源:https://github.com/bita-github/MRP-FER
8.论文中的实验及结果有没有很好地支持需要验证的科学假设?
在FER+数据集上的结果要比文献M.-I. Georgescu et al. 低一些。其他数据集都达到最好的结果。证明了通过利用现有的基准数据集,带有迁移学习的模拟遮挡可以提供有希望的结果。
9.这篇论文到底有什么贡献?
提出了一种基于转移学习的方法来解决用户佩戴VR,面部存在在严重遮挡的情况下的表情识别。
10.下一步呢?有什么工作可以继续深入?
创建自己的数据集。
文中提出的模拟遮挡与实际遮挡的符合程度,如何量化。