第十节、人脸识别之特征脸算法
人脸检测是OpenCV的一个很不错的功能,它是人脸识别的基础。什么是人脸识别?其实就是一个程序能够识别出给定图像或者视频中的人脸。实现这一目标的方法之一是用一系列分好类的图像(人脸数据库)来训练,并基于这些图像进行识别。
人脸识别所需要的人脸库可以通过两种方式来获得:自己获得图像或从人脸数据库免费获得可用的人脸图像,互联网上有许多人脸数据库,这里以ORL人脸库(包含40个人,每人10张人脸,共400张人脸)为例,ORL人脸库中每一张图像大小为92x112,我们要想对这些样本进行人脸识别,必须要在包含人脸的样本图像上进行人脸识别。除了要识别ORL人脸库,我们也还想要识别出自己,所以我们还需要准备自己的图像。
一 生成自己的人脸图像
我们通过摄像头采集自己的人脸,大约10张图像就可以,我们需要把图像调整为92x112的大小,并且保存到一个指定文件夹,文件名后缀为.pgm。代码如下:
#1、生成自己人脸识别数据 def generator(data): ''' 生成的图片满足以下条件 1、图像是灰度格式,后缀为.pgm 2、图像大小要一样 params: data:指定生成的人脸数据的保存路径 ''' ''' 打开摄像头,读取帧,检测帧中的人脸,并剪切,缩放 ''' name = input('my name:') #如果路径存在则删除 path = os.path.join(data,name) if os.path.isdir(path): #os.remove(path) #删除文件 #os.removedirs(path) #删除空文件夹 shutil.rmtree(path) #递归删除文件夹 #创建文件夹 os.mkdir(path) #创建一个级联分类器 加载一个 .xml 分类器文件. 它既可以是Haar特征也可以是LBP特征的分类器. face_cascade = cv2.CascadeClassifier('./haarcascades/haarcascade_frontalface_default.xml') #打开摄像头 camera = cv2.VideoCapture(0) cv2.namedWindow('Dynamic') #计数 count = 1 while(True): #读取一帧图像 ret,frame = camera.read() #判断图片读取成功? if ret: gray_img = cv2.cvtColor(frame,cv2.COLOR_BGR2GRAY) #人脸检测 faces = face_cascade.detectMultiScale(gray_img,1.3,5) for (x,y,w,h) in faces: #在原图像上绘制矩形 cv2.rectangle(frame,(x,y),(x+w,y+h),(255,0,0),2) #调整图像大小 和ORL人脸库图像一样大小 f = cv2.resize(frame[y:y+h,x:x+w],(92,112)) #保存人脸 cv2.imwrite('%s/%s.pgm'%(path,str(count)),f) count += 1 cv2.imshow('Dynamic',frame) #如果按下q键则退出 if cv2.waitKey(100) & 0xff == ord('q') : break camera.release() cv2.destroyAllWindows()
程序运行后,我们需要输入自己的姓名,这里我输入zy,并在data路径下生成了一个zy文件夹,下面保存着采集到的图像:
二 人脸识别(OpenCV)
OpenCV 3有三种人脸识别的方法,它们分别基于不同的三种算法,Eigenfaces,Fisherfaces和Local Binary Pattern Histogram。
这些方法都有一个类似的过程,即都使用分好类的训练数据集来进行训练,对图像或视频中检测到的人脸进行分析,并从两方面来确定:是否识别到目标;目标真正被识别到的置信度的衡量,这也称为置信度评分,在实际应用中可以通过设置阈值来进行筛选,置信度高于该阈值的人脸将会被丢弃。
这里我们主要来介绍一下利用特征脸进行人脸识别的方法,特征脸法,本质上其实就是PCA降维,这种算法的基本思路是,把二维的图像先灰度化,转化为一通道的图像,之后再把它首尾相接转化为一个列向量,假设图像大小是20*20的,那么这个向量就是400维,理论上讲组织成一个向量,就可以应用任何机器学习算法了,但是维度太高算法复杂度也会随之升高,所以需要使用PCA算法降维,然后使用简单排序或者KNN都可以。
2.1 准备数据
我们先来准备训练所需要的数据,这里我们需要的数据有训练的图像,每个图像对应的标签以及标签对应的真实姓名。
#2、读取ORL人脸数据库 准备训练数据 def LoadImages(data): ''' 加载数据集 params: data:训练集数据所在的目录,要求数据尺寸大小一样 ret: images:[m,height,width] m为样本数,height为高,width为宽 names:名字的集合 labels:标签 ''' images = [] labels = [] names = [] label = 0 #过滤所有的文件夹 for subDirname in os.listdir(data): subjectPath = os.path.join(data,subDirname) if os.path.isdir(subjectPath): #每一个文件夹下存放着一个人的照片 names.append(subDirname) for fileName in os.listdir(subjectPath): imgPath = os.path.join(subjectPath,fileName) img = cv2.imread(imgPath,cv2.IMREAD_GRAYSCALE) images.append(img) labels.append(label) label += 1 images = np.asarray(images) labels = np.asarray(labels) return images,labels,names
2.2 人脸识别
有了训练数据之后,我们就可以直接调用OpenCV 3的人脸识别库进行训练,训练好之后,就可以进行识别:
def FaceRec(data): #加载训练数据 X,y,names=LoadImages('./face') model = cv2.face.EigenFaceRecognizer_create() model.train(X,y) #创建一个级联分类器 加载一个 .xml 分类器文件. 它既可以是Haar特征也可以是LBP特征的分类器. face_cascade = cv2.CascadeClassifier('./haarcascades/haarcascade_frontalface_default.xml') #打开摄像头 camera = cv2.VideoCapture(0) cv2.namedWindow('Dynamic') while(True): #读取一帧图像 ret,frame = camera.read() #判断图片读取成功? if ret: gray_img = cv2.cvtColor(frame,cv2.COLOR_BGR2GRAY) #人脸检测 faces = face_cascade.detectMultiScale(gray_img,1.3,5) for (x,y,w,h) in faces: #在原图像上绘制矩形 frame = cv2.rectangle(frame,(x,y),(x+w,y+h),(255,0,0),2) roi_gray = gray_img[y:y+h,x:x+w] try: #宽92 高112 roi_gray = cv2.resize(roi_gray,(92,112),interpolation=cv2.INTER_LINEAR) params = model.predict(roi_gray) print('Label:%s,confidence:%.2f'%(params[0],params[1])) cv2.putText(frame,names[params[0]],(x,y-20),cv2.FONT_HERSHEY_SIMPLEX,1,255,2) except: continue cv2.imshow('Dynamic',frame) #如果按下q键则退出 if cv2.waitKey(100) & 0xff == ord('q') : break camera.release() cv2.destroyAllWindows()
这里我们cv2.face.EigenFaceRecognizer_create()创建人脸识别模型,通过图像数组和对应标签数组来训练模型,EigenFaceRecognizer_create()函数有两个可以设置的重要参数:第一个是想要保留的主成分数目,第二个是指定的置信度阈值,这是一个浮点数。
接下来,重复与人脸检测操作类似的过程。通过在检测到的人脸上进行人脸识别,注意这里有两个步骤:
- 1、将检测到人脸调整为指定的大小92x112,即与训练集图像尺寸一样;
- 2、调用prdict()函数进行预测,该函数返回有两个元素的数组,第一个元素是所识别个体的标签,第二个是置信度评分,用来衡量所识别人脸与原模型的差距,0表示完全匹配。
注意:Eigenfaces/Fisherfaces和LBPH的置信度评分值完全不同,Eigenfaces和Fisherfaces将产生0到20000的值,而任意低于4000到5000的评分都是相当可靠的识别。LBPH有着类似的工作方式,但是一个好的识别参考值要低于50,任意高于80的参数值都被认为是低的置信度评分。
源代码:
# -*- coding: utf-8 -*- """ Created on Thu Aug 16 19:41:19 2018 @author: lenovo """ ''' 调用opencv库实现人脸识别 ''' import numpy as np import cv2 import os import shutil #读取pgm图像,并显示 def ShowPgm(filepath): cv2.namedWindow('pgm') img = cv2.imread(filepath) cv2.imshow('pgm',img) print(img.shape) cv2.waitKey(0) cv2.destroyAllWindows() #1、生成自己人脸识别数据 def generator(data): ''' 生成的图片满足以下条件 1、图像是灰度格式,后缀为.pgm 2、图像大小要一样 params: data:指定生成的人脸数据的保存路径 ''' ''' 打开摄像头,读取帧,检测帧中的人脸,并剪切,缩放 ''' name = input('my name:') #如果路径存在则删除 path = os.path.join(data,name) if os.path.isdir(path): #os.remove(path) #删除文件 #os.removedirs(path) #删除空文件夹 shutil.rmtree(path) #递归删除文件夹 #创建文件夹 os.mkdir(path) #创建一个级联分类器 加载一个 .xml 分类器文件. 它既可以是Haar特征也可以是LBP特征的分类器. face_cascade = cv2.CascadeClassifier('./haarcascades/haarcascade_frontalface_default.xml') #打开摄像头 camera = cv2.VideoCapture(0) cv2.namedWindow('Dynamic') #计数 count = 1 while(True): #读取一帧图像 ret,frame = camera.read() #判断图片读取成功? if ret: gray_img = cv2.cvtColor(frame,cv2.COLOR_BGR2GRAY) #人脸检测 faces = face_cascade.detectMultiScale(gray_img,1.3,5) for (x,y,w,h) in faces: #在原图像上绘制矩形 cv2.rectangle(frame,(x,y),(x+w,y+h),(255,0,0),2) #调整图像大小 和ORL人脸库图像一样大小 f = cv2.resize(frame[y:y+h,x:x+w],(92,112)) #保存人脸 cv2.imwrite('%s/%s.pgm'%(path,str(count)),f) count += 1 cv2.imshow('Dynamic',frame) #如果按下q键则退出 if cv2.waitKey(100) & 0xff == ord('q') : break camera.release() cv2.destroyAllWindows() #2、读取ORL人脸数据库 准备训练数据 def LoadImages(data): ''' 加载数据集 params: data:训练集数据所在的目录,要求数据尺寸大小一样 ret: images:[m,height,width] m为样本数,height为高,width为宽 names:名字的集合 labels:标签 ''' images = [] labels = [] names = [] label = 0 #过滤所有的文件夹 for subDirname in os.listdir(data): subjectPath = os.path.join(data,subDirname) if os.path.isdir(subjectPath): #每一个文件夹下存放着一个人的照片 names.append(subDirname) for fileName in os.listdir(subjectPath): imgPath = os.path.join(subjectPath,fileName) img = cv2.imread(imgPath,cv2.IMREAD_GRAYSCALE) images.append(img) labels.append(label) label += 1 images = np.asarray(images) labels = np.asarray(labels) return images,labels,names def FaceRec(data): #加载训练数据 X,y,names=LoadImages('./face') model = cv2.face.EigenFaceRecognizer_create() model.train(X,y) #创建一个级联分类器 加载一个 .xml 分类器文件. 它既可以是Haar特征也可以是LBP特征的分类器. face_cascade = cv2.CascadeClassifier('./haarcascades/haarcascade_frontalface_default.xml') #打开摄像头 camera = cv2.VideoCapture(0) cv2.namedWindow('Dynamic') while(True): #读取一帧图像 ret,frame = camera.read() #判断图片读取成功? if ret: gray_img = cv2.cvtColor(frame,cv2.COLOR_BGR2GRAY) #人脸检测 faces = face_cascade.detectMultiScale(gray_img,1.3,5) for (x,y,w,h) in faces: #在原图像上绘制矩形 frame = cv2.rectangle(frame,(x,y),(x+w,y+h),(255,0,0),2) roi_gray = gray_img[y:y+h,x:x+w] try: #宽92 高112 roi_gray = cv2.resize(roi_gray,(92,112),interpolation=cv2.INTER_LINEAR) params = model.predict(roi_gray) print('Label:%s,confidence:%.2f'%(params[0],params[1])) cv2.putText(frame,names[params[0]],(x,y-20),cv2.FONT_HERSHEY_SIMPLEX,1,255,2) except: continue cv2.imshow('Dynamic',frame) #如果按下q键则退出 if cv2.waitKey(100) & 0xff == ord('q') : break camera.release() cv2.destroyAllWindows() if __name__=='__main__': #ShowPgm('./face/s1/1.pgm') data = './face' #生成自己的人脸数据 #generator(data) FaceRec(data)
三 自己实现特征脸
上面我们介绍了调用OpenCV实现的特征脸,但是我们有时候也想自己实现一下,并不想直接调用别人的库。
3.1 PCA算法
假设我们有m个样本,每一个样本图片都是$w×h$大小的,可以看做$n×1$的列向量$x_i€R^n,n=w×h$,那么训练集$S={x_1,x_2,...,x_m}$,我们利用PCA把原始向量$x_i$从高维空间$R^n$变换到低维空间$R^k,k<<n$。
PCA算法的主要步骤:
- 1、先求训练集$S$的均值向量$\bar{x}=\frac{1}{m}\sum\limits_{i=1}^{m}x_i$;
- 2、向量取均值$Φ_i=x_i-\bar{x}$;
- 3、我们定义$A=[Φ_1,Φ_2,...,Φ_m]$,协方差矩阵$C=\frac{1}{m}AA^T$;
- 4、特征值分解$Cu_i=λ_iu_i$;
我们知道协方差矩阵是一个高维矩阵$C€R^{n×n}$,如果直接进行特征分解,无疑是非常消耗资源也很费时的。特征脸算法做了一个非常巧妙的变换,我们先来看$A^TA$的特征值分解,因为$A^TA€R^{m×m}$,与$C$比起来,维度要小得多。我们可以得到:
$$A^TAv_i=β_iv_i$$
假设$β_1,β_2,β_3,...,β_m$是$A^TA$的特征值,$v_1,v_2,v_3,...,v_m$是特征值对应的特征向量。(考虑重根$β_i$)
左乘$A$我们可以得到:
$$AA^TAv_i=β_iAv_i$$
即:$CAv_i=β_iAv_i$
所以我们可以看到$β_1,β_2,β_3,...,β_m$也是$AA^T$的特征值,$Av_1,Av_2,Av_3,...,Av_m$是特征值对应的特征向量。但是实际上$AA^T$应该有$n$个特征值(考虑重根),以及$n$个线性无关的特征向量。
又由于$A^TA$的$m$个特征值与特征向量对应着$AA^T$的前$m$个最大的特征值以及特征值相对应的特征向量。(这句话我也不怎么明白,$A^TA$的m个特征值为什么就是$AA^T$n个特征值中最大的前m个?)
所以通过这种变换, 可以非常快速地求出$AA^T$的特征向量$u_i=Av_i,i=1,2,...,m$;
注意:采用这种求特征值的方法要求$k≤m$,也就是说降维后的维数不能大于样本数。
- 5、将m个特征值从大到小排序,截取前$k$个特征值及对应的特征向量。组成变换矩阵$P=[e_1,e_2,e_3...,e_k]^T,P€R^{k×n}$,$e_i$为特征向量$e_i€R^{n×1}$,则把高维向量$Φ_i$降维到低维向量$Ω_i$的变换公式为:$Ω_i = PΦ_i,Ω_i€R^{n×1},Φ_i€R^{k×1}$,由于我们训练集中有m个样本,我们先将训练集中的每个人脸图像映射到低维空间$Ω_1,Ω_2,...,Ω_m$;
- 6、给定一个测试样本$x$,先做去均值$Φ=x-\bar{x}$,然后再映射到低维空间,得到低维向量$Ω$,然后我们可以通过KNN来进行分类,通过计算$Ω$与$Ω_1,Ω_2,...,Ω_m$的距离,然后进行从小到大排序,选取前g个样本,分别获取每个样本对应的类别,通过投票的方式得到测试样本的类别。
3.2 实现代码
下面为实现代码:
# -*- coding: utf-8 -*- """ Created on Fri Aug 17 17:53:30 2018 @author: lenovo """ ''' 自己实现一个人脸识别 ''' ''' 人脸识别经典算法实现(一)——特征脸法:https://blog.csdn.net/freedom098/article/details/52088064 第一种比较经典的算法就是特征脸法,本质上其实就是PCA降维,这种算法的基本思路是,把二维的图像先灰度化, 转化为一通道的图像,之后再把它首尾相接转化为一个列向量,假设图像大小是20*20的,那么这个向量就是400维 ,理论上讲组织成一个向量,就可以应用任何机器学习算法了,但是维度太高算法复杂度也会随之升高,所以需要 使用PCA算法降维,然后使用简单排序或者KNN都可以。 PCA降维:将一组N维向量降到K维,PCA通过寻找K个单位正交基,使得原始数据变换到这组基后各个字段两两间协方差 为0,而字段的方差尽可能大 http://blog.codinglabs.org/articles/pca-tutorial.html ''' import numpy as np import cv2 import os from sklearn import neighbors def load_images(data): ''' 加载数据集 params: data:训练集数据所在的目录,要求数据尺寸大小一样 ret: images:[m,height,width] m为样本数,height为高,width为宽 names:名字的集合 labels:标签 ''' images = [] labels = [] names = [] label = 0 #过滤所有的文件夹 for subDirname in os.listdir(data): subjectPath = os.path.join(data,subDirname) if os.path.isdir(subjectPath): #每一个文件夹下存放着一个人的照片 names.append(subDirname) for fileName in os.listdir(subjectPath): imgPath = os.path.join(subjectPath,fileName) img = cv2.imread(imgPath,cv2.IMREAD_GRAYSCALE) images.append(img) labels.append(label) label += 1 images = np.asarray(images) labels = np.asarray(labels) return images,labels,names class EigenFace(object): def __init__(self,dimNum=150,n_neighbors=3,dsize=(100,100)): ''' 构造函数:初始化参数 params: dimNum:PCA降维后的维度k n_neighbors:knn的参数n_neighbors dsize:对输入图像进行预处理,指定图像预处理时缩放的尺寸 ''' self.__dimNum = dimNum self.__dsize = dsize self.__mean = 0.0 self.__knn = neighbors.KNeighborsClassifier(n_neighbors) def __pca(self,X): ''' 使用PCA对数据进行降维 params: X:源数据,形状为[m,n] m为样本数,n为样本的维数 return: 降维后的训练集数据[m,k] 和变换矩阵P = [k,n] ''' #[n,m] X = X.T #均值化矩阵 [n,] mean = np.reshape(np.mean(X,axis=1),(-1,1)) self.__mean = mean #去均值 [n,m] - [n,1] diff = X - mean ''' 求协方差矩阵 这里不去直接去求np.dot(diff,diff.T)的的特征向量和特征值,而是通过求np.dot(diff.T,diff)的特征向量和特征值变换得到 主要是因为np.dot(diff,diff.T)为[n,n] np.dot(diff.T,diff)为[m,m] 特征数远大于样本数,所以直接对[n,n]矩阵求特征值比较慢 ''' cov = np.dot(diff.T,diff)/diff.shape[1] ''' 计算[m,m]的协方差矩阵的特征值[m,]和特征向量[m,m] ''' eigVals,eigVects = np.linalg.eig(cov) #通过左乘diff得到[n,n]矩阵的特征向量[n,m] eigVects = np.dot(diff,eigVects) print('特征向量维度:',eigVects.shape) #对特征值进行排序 返回排序后的索引顺序,从小到大排序 eigValIndex = np.argsort(eigVals) #从大到小排序 eigValIndex = eigValIndex[::-1] #取出指定个数的前k大的特征值 eigValIndex = eigValIndex[:self.__dimNum] #归一化特征向量 eigVects = eigVects/np.linalg.norm(eigVects,axis=0) #变换矩阵[k,n] transMat = (eigVects.T)[eigValIndex,:] #计算经过变换矩阵变换后的新数据 [k,n]x[n,m] = [k,m] lowMat = np.dot(transMat,diff) #[m,k] lowMat = lowMat.T print('降维后的矩阵lowMat维度为:',lowMat.shape) return lowMat,transMat def __prepare(self,images): ''' 对图片进行预处理,统一尺寸,直方图均衡化(防止曝光不均衡) params: images:训练集数据,要求为灰度图片 [m,height,width] m为样本数,height为高,width为宽 return: 处理之后的数据 [m,n] n = dsize[0]x dsize[1] 即特征数 ''' new_images = [] for image in images: #缩放 re_img = cv2.resize(image,self.__dsize) #直方图均衡化 hist_img = cv2.equalizeHist(re_img) #转换成一行数据 hist_img = np.reshape(hist_img,-1) new_images.append(hist_img) new_images = np.asarray(new_images) return new_images def fit(self,X_train,Y_train): ''' 训练,这里使用KNN算法 params: X_train:训练集数据,要求为灰度图片 [m,height,width] m为样本数,height为高,width为宽 Y_train:训练集标签 [m,] ''' #对图片数据进行预处理 [M,N] X_train = self.__prepare(X_train) #对图片数据进行降维处理 X_train_pca:[m,k] __transMat:[n,k] X_train_pca,self.__transMat = self.__pca(X_train) #开始训练 self.__knn.fit(X_train_pca,Y_train) def predict(self,X_test): ''' 开始预测 params: X_test:测试图片,要求为灰度图片 [m,hight,width] return: Y_pred:[m,1] 返回预测的标签 ''' if len(X_test.shape) == 2: X_test = np.expand_dims(X_test,axis=0) #对数据进行预处理 [m,n] X_test = self.__prepare(X_test) #计算经过变换矩阵变换后的新数据 [m,k] X_test_pca = np.dot(self.__transMat,X_test.T-self.__mean) X_test_pca = X_test_pca.T Y_pred = self.__knn.predict(X_test_pca) return Y_pred if __name__=='__main__': face = EigenFace(100) #准备训练集数据 X_train,Y_train,names = load_images('./face') face.fit(X_train,Y_train) #创建一个级联分类器 加载一个 .xml 分类器文件. 它既可以是Haar特征也可以是LBP特征的分类器. face_cascade = cv2.CascadeClassifier('./haarcascades/haarcascade_frontalface_default.xml') #打开摄像头 camera = cv2.VideoCapture(0) cv2.namedWindow('Dynamic') print('开始预测') while(True): #读取一帧图像 ret,frame = camera.read() #判断图片读取成功? if ret: gray_img = cv2.cvtColor(frame,cv2.COLOR_BGR2GRAY) #人脸检测 faces = face_cascade.detectMultiScale(gray_img,1.3,5) for (x,y,w,h) in faces: #在原图像上绘制矩形 frame = cv2.rectangle(frame,(x,y),(x+w,y+h),(255,0,0),2) roi_gray = gray_img[y:y+h,x:x+w] Y_pred = face.predict(roi_gray) name = names[Y_pred[0]] print('Label:%s'%(name)) cv2.putText(frame,name,(x,y-20),cv2.FONT_HERSHEY_SIMPLEX,1,255,2) cv2.imshow('Dynamic',frame) #如果按下q键则退出 if cv2.waitKey(100) & 0xff == ord('q') : break camera.release() cv2.destroyAllWindows()
我们在介绍原理的时候,训练集矩阵$S$,每一列都对应一个样本,然而在代码实现的时候,我们传入的训练集是每一行对应一个样本,所以在__pca()函数中对输入数据做了一个转置,同理在输入数据降维之后输出时我们也做了一个转置,使得输出的矩阵每一行对应一个样本。
四 代码下载
参考文献
[4]PCA的数学原理