模式识别5-1主成分分析和k-l变换

上传人:ji****en 文档编号:110834463 上传时间:2019-10-31 格式:PPT 页数:70 大小:784.01KB
返回 下载 相关 举报
模式识别5-1主成分分析和k-l变换_第1页
第1页 / 共70页
模式识别5-1主成分分析和k-l变换_第2页
第2页 / 共70页
模式识别5-1主成分分析和k-l变换_第3页
第3页 / 共70页
模式识别5-1主成分分析和k-l变换_第4页
第4页 / 共70页
模式识别5-1主成分分析和k-l变换_第5页
第5页 / 共70页
点击查看更多>>
资源描述

《模式识别5-1主成分分析和k-l变换》由会员分享,可在线阅读,更多相关《模式识别5-1主成分分析和k-l变换(70页珍藏版)》请在金锄头文库上搜索。

1、主成分分析,主成分分析PCA Principle Component Analysis 通过K-L变换实现主成分分析 PCA的变换矩阵是协方差矩阵,K-L变换的变换矩阵可以有很多种(二阶矩阵、协方差矩阵、总类内离散度矩阵等等)。当K-L变换矩阵为协方差矩阵时,等同于PCA。,KL 坐标系的产生矩阵,K-L变换,特征提取思想 用映射(或变换)的方法把原始特征变换为较少的新特征 降维 主成分分析(PCA)基本思想 进行特征降维变换,不能完全地表示原有的对象,能量总会有损失。 希望找到一种能量最为集中的的变换方法使损失最小,K-L变换,原始输入: x 变换后特征:y 变换矩阵(线性变换):A 则:

2、y=ATx,K-L变换,思考: 希望特征之间关联性尽可能小 变换后的相关矩阵: RyEyyT =EATxxTA =ATRxA 我们是不是希望Ry是个对角矩阵? 如何选择A?,K-L变换,考虑以Rx的特征向量作为A的列,则 Ry=ATRxA = a1,a2an TRx a1,a2an = a1,a2an T 1a1, 2a2nan = 为对角矩阵,对角线元素为 1, 2n 达到变换后特征不相关的目的 以上为K-L变换,K-L变换,思考K-L变换性质: 如果降维,有什么结果 原有N维,只保留m维,即 去掉ym+1yN 希望:和原来的表示方法差别最小 即:E|x-x|2 最小 x表示y1ym在原空间

3、中对应的表示方法,K-L变换,K-L变换,结论 如果对特征向量排序,舍弃最小的特征,则损失的能量最小,K-L变换典型应用,1降维与压缩 对一幅人脸图象,如果它由M行与N到象素组成,则原始的特征空间维数就应为MN。 而如果在K-L变换以及只用到30个基,那么维数就降至30,由此可见降维的效果是极其明显的。 譬如原训练样本集的数量为V,而现采用30个基,数据量是大大降低,K-L变换典型应用,3人脸识别 首先搜集要识别的人的人脸图象,建立人脸图象库, 然后利用K-L变换确定相应的人脸基图象, 再反过来用这些基图象对人脸图象库中的有人脸图象进行K-L变换 在识别时,先对一张所输入的脸图象进行必要的规范

4、化,再进行K-L变换分析,得到其参数向量。,K-L变换典型应用,4人脸图象合成,使用K-L变换进行特征提取,题目: 主成分分析 PCA,路志宏 Lu_zhihong,Principal Component Analysis,内 容,一、前 言 二、问题的提出 三、主成分分析 1. 二维数据的例子 2. PCA的几何意义 3. 均值和协方差、 特征值和特征向量 4. PCA的性质 四、主成分分析的算法 五、具体实例 实例2 六、 结论,七、练习,1. 前 言,假定你是一个公司的财务经理,掌握了公司的所有数据,比如固定资产、流动资金、每一笔借贷的数额和期限、各种税费、工资支出、原料消耗、产值、利润

5、、折旧、职工人数、职工的分工和教育程度等等。 如果让你介绍公司状况,你能够把这些指标和数字都原封不动地摆出去吗? 当然不能。实例1 实例2 你必须要把各个方面作出高度概括,用一两个指标简单明了地把情况说清楚。,汇报什么?,PCA,多变量问题是经常会遇到的。变量太多,无疑会增加分析问题的难度与复杂性. 在许多实际问题中,多个变量之间是具有一定的相关关系的。因此,能否在各个变量之间相关关系研究的基础上,用较少的新变量代替原来较多的变量,而且使这些较少的新变量尽可能多地保留原来较多的变量所反映的信息?事实上,这种想法是可以实现的. 主成分分析原理: 是把原来多个变量化为少数几个综合指标的一种统计分析

6、方法,从数学角度来看,这是一种降维处理技术。 主成分分析方法就是综合处理这种问题的一种强有力的方法。,(1) 如何作主成分分析? 当分析中所选择的变量具有不同的量纲,变量水平差异很大,应该选择基于相关系数矩阵的主成分分析。,在力求数据信息丢失最少的原则下,对高维的变量空间降维,即研究指标体系的少数几个线性组合,并且这几个线性组合所构成的综合指标将尽可能多地保留原来指标变异方面的信息。这些综合指标就称为主成分。要讨论的问题是:,2. 问题的提出,各个变量之间差异很大,(2) 如何选择几个主成分。 主成分分析的目的是简化变量,一般情况下主成分的个数应该小于原始变量的个数。关于保留几个主成分,应该权

7、衡主成分个数和保留的信息。 (3)如何解释主成分所包含的几何意义或经济意义或其它。,美国的统计学家斯通(Stone)在1947年关于国民经济的研究是一项十分著名的工作。他曾利用美国1929一1938年各年的数据,得到了17个反映国民收入与支出的变量要素,例如雇主补贴、消费资料和生产资料、纯公共支出、净增库存、股息、利息、外贸平衡等等。,在进行主成分分析后,竟以97.4的精度,用三个新变量就取代了原17个变量。,实例1: 经济分析,根据经济学知识,斯通给这三个新变量分别命名为总收入F1、总收入变化率F2和经济发展或衰退的趋势F3。更有意思的是,这三个变量其实都是可以直接测量的。,主成分分析就是试

8、图在力保数据信息丢失最少的原则下,对这种多变量的数据表进行最佳综合简化,也就是说,对高维变量空间进行降维处理。 很显然,识辨系统在一个低维空间要比在一个高维空间容易得多。,实例2: 成绩数据,100个学生的数学、物理、化学、语文、历史、英语的成绩如下表(部分)。,从本例可能提出的问题,目前的问题是,能不能把这个数据的6个变量用一两个综合变量来表示呢? 这一两个综合变量包含有多少原来的信息呢? 能不能利用找到的综合变量来对学生排序呢?这一类数据所涉及的问题可以推广到对企业,对学校进行分析、排序、判别和分类等问题。,例中的的数据点是六维的;也就是说,每个观测值是6维空间中的一个点。我们希望把6维空

9、间用低维空间表示。,3.1 PCA: 二维数据分析,先假定数据只有二维,即只有两个变量,它们由横坐标和纵坐标所代表;因此每个观测值都有相应于这两个坐标轴的两个坐标值; 如果这些数据形成一个椭圆形状的点阵(这在变量的二维正态的假定下是可能的).,3.2主成分分析的几何解释,平移、旋转坐标轴,主成分分析的几何解释,平移、旋转坐标轴,主成分分析的几何解释,平移、旋转坐标轴,主成分分析的几何解释,平移、旋转坐标轴,3.2. PCA: 进一步解释,椭圆有一个长轴和一个短轴。在短轴方向上,数据变化很少;在极端的情况,短轴如果退化成一点,那只有在长轴的方向才能够解释这些点的变化了;这样,由二维到一维的降维就

10、自然完成了。,二维数据,进一步解释PCA,当坐标轴和椭圆的长短轴平行,那么代表长轴的变量就描述了数据的主要变化,而代表短轴的变量就描述了数据的次要变化。 但是,坐标轴通常并不和椭圆的长短轴平行。因此,需要寻找椭圆的长短轴,并进行变换,使得新变量和椭圆的长短轴平行。 如果长轴变量代表了数据包含的大部分信息,就用该变量代替原先的两个变量(舍去次要的一维),降维就完成了。 椭圆(球)的长短轴相差得越大,降维也越有道理。,进一步解释PCA(续),对于多维变量的情况和二维类似,也有高维的椭球,只不过无法直观地看见罢了。 首先把高维椭球的主轴找出来,再用代表大多数数据信息的最长的几个轴作为新变量;这样,主

11、成分分析就基本完成了。 注意,和二维情况类似,高维椭球的主轴也是互相垂直的。这些互相正交的新变量是原先变量的线性组合,叫做主成分(principal component)。,正如二维椭圆有两个主轴,三维椭球有三个主轴一样,有几个变量,就有几个主成分。 选择越少的主成分,降维就越好。什么是标准呢?那就是这些被选的主成分所代表的主轴的长度之和占了主轴长度总和的大部分。有些文献建议,所选的主轴总长度占所有主轴长度之和的大约85%即可,其实,这只是一个大体的说法;具体选几个,要看实际情况而定。,3.3. 均值和协方差 特征值和特征向量,设有n个样本,每个样本观测p个指标(变量):X1,X2,Xn, 得

12、到原始数据矩阵:,1. 样本均值,显然,样本均值是数据散列图的中心.,于是 p*n 矩阵的列B具有零样本均值, 称为平均偏差形式,M,2. 样本协方差,协方差的大小在一定程度上反映了多变量之间的关系,但它还受变量自身度量单位的影响.,注意:协方差 是对称矩阵且半正定,3.3 特征值与特征向量,定义,若,则称为的特征值,,称为的特征向量,注, 并不一定唯一;, 阶方阵的特征值,就是使齐次线性方程组, 特征向量 ,特征值问题只针对与方阵;,有非零解的值,即满足,的都是方阵的特征值,定义,称以为未知数的一元次方程,为的特征方程,例1: 从一个总体中随机抽取4个样本作三次测量,每一个样本的观测向量为:

13、,计算样本均值M和协方差矩阵S以及S的特征值和特征向量.,Syntax C = cov(X) AlgorithmThe algorithm for cov is n,p = size(X); X = X - ones(n,1) * mean(X); Y = X*X/(n-1); See Also corrcoef, mean, std, var,平移、旋转坐标轴,M,为了方便,我们在二维空间中讨论主成分的几何意义。 设有n个样本,每个样本有两个观测变量xl和x2,在由变量xl和x2 所确定的二维平面中,n个样本点所散布的情况如椭圆状。由图可以看出这n个样本点无论是沿着xl 轴方向或x2轴方向都

14、具有较大的离散性,其离散的程度可以分别用观测变量xl 的方差和x2 的方差定量地表示。显然,如果只考虑xl和x2 中的任何一个,那么包含在原始数据中的信息将会有较大的损失。,如果我们将xl 轴和x2轴先平移,再同时按逆时针方向旋转角度,得到新坐标轴Fl和F2。Fl和F2是两个新变量。,Fl,F2除了可以对包含在Xl,X2中的信息起着浓缩作用之外,还具有不相关的性质,这就使得在研究复杂的问题时避免了信息重叠所带来的虚假性。二维平面上的个点的方差大部分都归结在Fl轴上,而F2轴上的方差很小。Fl和F2称为原始变量x1和x2的综合变量。 F简化了系统结构,抓住了主要矛盾。,稍事休息,3.4 PCA的性质,一、两个线性代数的结论,1、若A是p阶实对称阵,则一定可以找到正交阵U,使,其中 是A的特征根。,2、若上述矩阵的特征根所对应的单位特征向量为,则实对称阵 属于不同特征根所对应的特征向量是正交的,即有,令,3.4 PCA的性质(续),3、均值,4、方差为所有特征根之和,说明主成分分析

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 电子/通信 > 综合/其它

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号