PCA人脸识别理论基础(附源码)

上传人:汽*** 文档编号:464284036 上传时间:2023-01-23 格式:DOCX 页数:13 大小:113.71KB
返回 下载 相关 举报
PCA人脸识别理论基础(附源码)_第1页
第1页 / 共13页
PCA人脸识别理论基础(附源码)_第2页
第2页 / 共13页
PCA人脸识别理论基础(附源码)_第3页
第3页 / 共13页
PCA人脸识别理论基础(附源码)_第4页
第4页 / 共13页
PCA人脸识别理论基础(附源码)_第5页
第5页 / 共13页
点击查看更多>>
资源描述

《PCA人脸识别理论基础(附源码)》由会员分享,可在线阅读,更多相关《PCA人脸识别理论基础(附源码)(13页珍藏版)》请在金锄头文库上搜索。

1、1 PCA 与人脸识别及其理论基础1.1 问题描述1对于一幅图像可以看作一个由像素值组成的矩阵,也可以扩展开,看成一个矢量,如一 幅N*N象素的图像可以视为长度为N2的矢量,这样就认为这幅图像是位于N2维空间中的 一个点,这种图像的矢量表示就是原始的图像空间,但是这个空间仅是可以表示或者检测图 像的许多个空间中的一个。不管子空间的具体形式如何,这种方法用于图像识别的基本思想 都是一样的,首先选择一个合适的子空间,图像将被投影到这个子空间上,然后利用对图像 的这种投影间的某种度量来确定图像间的相似度,最常见的就是各种距离度量。1.1.1 K-L 变换1PCA方法是由Turk和Pentlad提出来

2、的,它的基础就是Karhunen-Loeve变换(简称KL 变换),是一种常用的正交变换。下面我们首先对K-L变换作一个简单介绍:假设X为n维的随机变量,X可以用n个基向量的加权和来表示:x =% eii式中:a是加权系数,e是基向量,此式还可以用矩阵的形式表示iiX = a1 2 n 12 n(e ,e , ,e )(a ,a , ,a )T取基向量为正交向量,即1 i = j=nT=Ij 1 i 主 jj则系数向量为:a = t X综上所述,K-L展开式的系数可用下列步骤求出:步骤一求随即向量X的自相关矩阵R = E XtX,由于没有类别信息的样本集的均值向量,常常没有意义,所以也可以把数

3、据的协方差矩B爰=e (x - U)(x - U)t 作为 K_L坐标系的产生矩阵,这卑是总体均值向量。步骤二求出自相关矩阵或协方差矩陈的本征值x和本征向量e,=(e,e,” ,e) 步骤三展开式系数即为a=txK_L变换的实质是建立了一个新的坐标系,将一个物体主轴沿特征矢量对齐的旋转 变换,这个变换解除了原有数据向量的各个分量之间相关性,从而有可能去掉那些带 有较少信息的坐标系以达到降低特征空间维数的目的。112利用PCA进行人脸识别完整的PCA人脸识别的应用包括几个步骤:人脸图像预处理;读入人脸库,训练形成 特征子空间;把训练图像和测试图像投影到上一步骤中得到的子空间上;选择一定的距离 函

4、数进行识别。下面详细描述整个过程(源码见faceRec.m)。1. 读入人脸库归一化人脸库后,将库中的每人选择一定数量的图像构成训练集,其余构成 测试集。设归一化后的图像是n*m,按列相连就构成N=n*m维矢量,可视为N维空间中的一个点,可 以通过K-L变换用一个低维子空间描述这个图像。2. 计算K- L变换的生成矩阵所有训练样本的协方差矩阵为(以下三个等价):1. C = (Rx ixT)/M -m imTAk kx xk =1 2. C = (Ai At ) /M( 1)A 3. C为(x 一m )(x 一mAl i =1 i x i xA =*e ,.4,*= x- m, m是平均人脸,

5、M训练人脸数,协方差矩阵C是12 M i i x xA个N*N的矩阵,N是x的维数。i为了方便计算特征值和特征向量,一般选用第2个公式。根据K - L变换原理,我们所求 的新坐标系即由矩阵Ai At的非零特征值所对应的特征向量组成。直接求N*N大小矩阵C的A 特征值和正交归一特征向量是很困难的, 根据奇异值分解原理(见段落1.2.5和1.2.6),可以 通过求解At i A的特征值和特征向量来获得At i A的特征值和特征向量,在计算得到C的所有非零特征值入,入,,入(从大到小排序,1 r M )及其对A01r -1应的单位正交特征向量u ,u , ,u 后,可以得到特征空间U =u ,u ,

6、 ,u 篙汎 ,从而 0 1r -10 1r-1 N*r可以计算一张图片X在特征空间上的投影系数(也可以理解为X在空间U中的坐标):Y = Ut * X G 饥r*1( 2 )3. 识别 利用公式( 2),首先把所有训练图片进行投影,然后对于测试图片也进行同样的投影, 采用判别函数对投影系数进行识别。1.2 PCA 的理论基础121 投影2设d维样本x , x , , x,以及一个d维基w,那么标量:y = w T xii是相当于x在基上的坐标值。如果|w| =1, y就是把x向方向为w的直线进行投影的结果,iii可以从图1看到。推广之,如果有一组基(m个)组成的空间W =w ,w , ,w

7、,那么可1 2 m以得到x在空间W上的坐标为:Y = W tX %*1。ixW0y图 1 投影图证明:WTx = IWIIx| - cos0i又v ixil-cos0 = y , IWII=1进一 步, 表达式w =m + ae表示w是一条通过点m,方向为e的直线。1.2.2 PCA的作用及其统计特性采用PCA对原始数据的处理,通常有三个方面的作用一降维、相关性去除、概率估计。下 面分别进行介绍:f去除原始数据相关性从统计学上讲,EX -E(X)Y -E(Y)称为随机变量X与Y协方差,记为Cov(X,Y)。竺丄,称为随机变量X与Y的相关系数。p =1则X与XY n )维矩阵,则存在两个正交矩阵

8、和一个对角阵:A = a ,a , ,a = UA Vt12r其中 U =u ,u , u,V =v, v , v,A = diag(入,入,入),且t = I ,VVt= I ,0 1r-10 1r-10 1r -1UU入呈降序排列。其中2为AAt詠m*m和At A e饥n*n的非零特征值,U和V分别是AAT和At A 入i对应于入2的特征向量。可得一个推论:iU = AV A -i可以计算At a的特征值入2及相应的正交归一特征向量v后,可由推论知AAt的正交归一特ii征向量u =丄 Avi入 ii注意,协方差矩阵C = (Ai At ) /M的特征值为:入2 / M oAi1.2.6利用

9、小矩阵计算大矩阵特征向量高阶矩阵的特征向量可以转化为求低阶矩阵的特征向量:设:A是秩为r的m*n( mn )维矩阵,C = AAt e饥m*m,是一个矩阵,现在要求C的XX特征值及特征向量,可通过先求小矩阵At A e饥n*n的特征向量v , v , , v 和特征值0 1r -1入,入,入,两者之间有以下关系:0 1r -1At A -v =入-i i iv左乘AAt (A -v )=入(A -v )iii显然,C = AAT 的特征向量是A-v (注意没有单位化)入,入,亦为其特征值。入Xi0 1r-1结论:1.2.5 与 1.2.6 的方法计算协方差矩阵的特征向量,特征值的结果是一致的,只是要注意125中的特征值要除以M,1.2.6中的特征向量要单位化。1.2.7图片归一化图片标准化通常是一个整体概念,要求把图片归一到均值为0 ,方差为1下情况下。这个概念类似于一般正态分布向标准正态分布的转化:命题 4 若 X - N(PQ 2),则 Z N(0,l)0所以要对一组图片中的一张X进行归一化(标准化),只需要减去均值,除以方差就可以了。i均值m =%尿 ,方差为D = E (X -m )(X - m )t 1xi Lxx i1.3 参考文献1 邓楠, 基于主成份分析的人脸识别,

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 机械/制造/汽车 > 电气技术

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号