人脸识别是机器学习和机器视觉领域非常重要的一个研究方向,而特征脸算法是人脸识别里非常经典的一个算法,EigenFaces 是基于PCA (principal component analysis) 即主分量分析的。

一张尺寸为 w×h 的人脸图像 Ii可以看成是一个 D×1 的列向量, xRD,其中 D=w×h, 那么,给定一个训练集 S, 含有 m 张人脸图像, 即: S={xi},i=1,2,...m, 简单来说,我们希望通过一些线性映射,将原始向量 x 从高维空间 RD 变换到一个低维空间 RKKD.

利用PCA 分析:
1: 先求训练集 S 的均值向量 x¯=1mmi=1xi

2: 向量去均值:Φi=xix¯

3: 求协方差矩阵 C=1mmi=1ΦiΦTi, 如果我们定义 A=[Φ1,Φ2,...,Φm], ARD×m, 那么 C=AAT

4: 特征值分解: Cui=γiui

我们知道协方差矩阵是一个高维矩阵 CRD×D. 如果直接进行特征分解,无疑是非常消耗资源也很费时的。特征脸算法做了一个非常巧妙的变换,我们先来看 ATA 的特征值分解,因为 ATARm×m,比起 C 来说,维度要小得多。我们可以得到:

ATAvi=λivi 进一步可以得到:

AATAvi=λiAvi 即:

CAvi=λiAvi 所以我们看到:

Cui=λiuiui=Avi

换句话说,AATATA 有相同的特征值,而特征向量满足如下关系:

ui=Avi

严格说来,AATRD×D, 最多可以有 D 个 特征值与特征向量。

ATARm×m, 最多可以有 m 个 特征值与特征向量。

ATA 中的 m 个 特征值与特征向量 对应 AAT 中 前 m 个最大的特征值以及特征值相对应的特征向量。

所以通过这种变换, 可以非常快速地求得 AAT 的特征向量 ui=Avi

5: 将特征值从大到小排序,截取前面 K 个特征值及对应的特征向量。我们可以用特征向量的线性组合来表示原来的去均值向量,即:

xix¯=Φi=Kj=1wjuj

wj=ΦTiuj

如果定义, Ω=[w1,w2,...,wK], U=[u1,u2,...,uK], 那么可以得到

Ω=ΦTiU, 我们看到,通过引入 Eigenfaces, 我们将高维向量 Φi 映射到低维向量 Ω

做人脸识别的时候,我们可以先将训练集中的每个subject的人脸图像映射到低维空间Ω1,Ω2,...Ωq, q 表示subject 的个数。给定一个测试样本 x,先做去均值,Φ=xx¯,然后再映射到低维空间,得到低维向量 Ω,我们要求解如下的目标函数:

argminlΩΩl

进而确定测试样本属于哪个subject。

posted on 2016-05-11 08:45  未雨愁眸  阅读(1015)  评论(0编辑  收藏  举报