数字图像处理课件KL变换-Eigenspace

上传人:E**** 文档编号:90969374 上传时间:2019-06-20 格式:PPT 页数:71 大小:1.23MB
返回 下载 相关 举报
数字图像处理课件KL变换-Eigenspace_第1页
第1页 / 共71页
数字图像处理课件KL变换-Eigenspace_第2页
第2页 / 共71页
数字图像处理课件KL变换-Eigenspace_第3页
第3页 / 共71页
数字图像处理课件KL变换-Eigenspace_第4页
第4页 / 共71页
数字图像处理课件KL变换-Eigenspace_第5页
第5页 / 共71页
点击查看更多>>
资源描述

《数字图像处理课件KL变换-Eigenspace》由会员分享,可在线阅读,更多相关《数字图像处理课件KL变换-Eigenspace(71页珍藏版)》请在金锄头文库上搜索。

1、2019/6/20,图象识别与人工智能研究所,1,一、K-L变换PCA、Eigenspace,1、图像转化为拉长向量 2、中心化训练图像 3、构造训练图像数据矩阵,2019/6/20,图象识别与人工智能研究所,2,4、计算协差阵 5、计算协差阵的特征值和特征向量 其中 是与非零特征值 对应的特征向量 6、按对应特征值大小将特征向量,构造变换矩阵,2019/6/20,图象识别与人工智能研究所,3,7、K-L变换,训练图像向eigenspace投影 8、图像识别 识别过程只要计算待识别图像投影坐标与训练图像投影坐标之间的距离,找出最短距离,若小于预定门限则为该接近训练样本,2019/6/20,图象

2、识别与人工智能研究所,4,例:,2019/6/20,图象识别与人工智能研究所,5,2019/6/20,图象识别与人工智能研究所,6,2019/6/20,图象识别与人工智能研究所,7,2019/6/20,图象识别与人工智能研究所,8,2019/6/20,图象识别与人工智能研究所,9,2019/6/20,图象识别与人工智能研究所,10,2019/6/20,图象识别与人工智能研究所,11,2019/6/20,图象识别与人工智能研究所,12,特征向量的快速计算方法 1、图像转化为拉长向量 2、中心化训练图像 3、计算协差阵 4、计算协差阵的特征值和特征向量,2019/6/20,图象识别与人工智能研究所

3、,13,5、计算 的特征向量 并除以它的模 6、同前述,特征向量排序,构造变换矩阵,2019/6/20,图象识别与人工智能研究所,14,上 例 数据,2019/6/20,图象识别与人工智能研究所,15,2019/6/20,图象识别与人工智能研究所,16,2019/6/20,图象识别与人工智能研究所,17,加上均值向量,p个样本共有p个特征值和特征向量,特征值按数值降序排列,有 并 描述第 个主分量获取的信息占 总信息的比例,称之为第 个主分量的贡献率。 前 个主分量的贡献率之和 称为 的累计贡献率。,2019/6/20,图象识别与人工智能研究所,18,奇异值分解(SVD),对任意图像 有 ,其

4、中 和 分别为 行和 列左右奇异向量正交方阵, , , 为图像A的第 个非零奇异值, 且 ,,2019/6/20,图象识别与人工智能研究所,19,K-L变换图像中心化处理的另外两种方法,1、标准方法,图像象素灰度减去所有图像的均值向量; 2、图像象素灰度减去图像本身的均值,它有利于图像互相关的计算; 3、图像象素灰度除以图像本身的模,这种变化有利于协方差的计算。 12、23方法可以级联,13方法不能级联,因为作用抵消。,2019/6/20,图象识别与人工智能研究所,20,二、Fisher (空间)判别函数,图像识别就是将C类N维图像向量向一个C1维分类空间投影的过程。 例如,二维空间的两类样本

5、点集,为了分类向一维直线投影,只要直线的方向合适,两类样本点可以分离开来, Fisher 判别函数就是要寻找最佳分离界面。识别时,测试图象也要投影,然后寻找最接近的训练图像投影点即可。,2019/6/20,图象识别与人工智能研究所,21,二维样本点投影示例图,2019/6/20,图象识别与人工智能研究所,22,Fisher 判别函数的基本方法,与PCA方法类似,训练图像和测试图象首先向同一个子空间投影,然后,使用相似性度量进行识别。差别就在于子空间的计算方法,以下是建立Fisher 判别函数的过程: 1、计算类内散布矩阵 类内散布矩阵描述同一类内样本散布状况,对于第 类,散布矩阵 是高类每一个

6、中心化处理后图像协差阵之和。,2019/6/20,图象识别与人工智能研究所,23,其中 是第 类内图像的均值向量。而总的类内散布矩阵(总共有 C 类)等于所有各类散布矩阵之和 2、计算类间散布矩阵 类间散布矩阵 描述类间散布状况,它是样本分布总均值 与每一类均值 之间差值的协差阵之和 其中 是第 类图像的个数。,2019/6/20,图象识别与人工智能研究所,24,3、求解特征值问题 计算类内和类间散步矩阵的特征向量 (V)和特征值() 。 4、保留前C1个特征向量 将特征值从大到小排列,取前C1个特征值对应的特征向量,构成Fisher基向量。 5、图像向基向量投影 所有原始(非中心化)图像与每

7、一个Fisher基向量求点积,即投影到一条可以进行判别的直线上。,2019/6/20,图象识别与人工智能研究所,25,例:两类12幅训练图像, 和,2019/6/20,图象识别与人工智能研究所,26,2019/6/20,图象识别与人工智能研究所,27,2019/6/20,图象识别与人工智能研究所,28,两类散布矩阵分别为,2019/6/20,图象识别与人工智能研究所,29,2019/6/20,图象识别与人工智能研究所,30,类内散布矩阵为,2019/6/20,图象识别与人工智能研究所,31,每一类的均值和总的均值为,2019/6/20,图象识别与人工智能研究所,32,类间散布矩阵为,2019/

8、6/20,图象识别与人工智能研究所,33,由于只有两类,只要保留一个特征向量即可,计算 非零特征值和特征向量,有,2019/6/20,图象识别与人工智能研究所,34,向这个基函数投影的结果如下表和下图所示,2019/6/20,图象识别与人工智能研究所,35,Fisher 判别函数的正交基方法,应用Fisher 判别函数之时,会遇到矩阵太大,计算费时,精度下降,而且,样本图像数目远小于图像象素数,矩阵是秩不足的。虽然这个问题可以用SVD求解,还有一种简单计算方法,将训练图像数据矩阵向PP正交矩阵投影,P是训练图像的个数。这种投影得到一个如此小的满秩数据矩阵,计算速度加快,而结果并不受影响。 以下

9、是计算步骤:,2019/6/20,图象识别与人工智能研究所,36,1、计算每一类图像的均值 和所有图像样本的均值 ; 2、中心化每一类图像样本,即图像减去该类的图像均值 ; 3、中心化每一类图像的均值,每类均值减去总均值 4、构造数据矩阵,将全部图像按列排列,形成一个数据矩阵; 5、计算这个数据矩阵的正交基向量,使用QR正交三,2019/6/20,图象识别与人工智能研究所,37,角分解,或借助计算训练图像协差阵全部特征向量完成,正交基向量矩阵为U; 6、中心化处理后的图像向正交基向量投影,即图像和正交基点积 7、中心化处理后的类均值向正交基向量投影,即 8、计算每类散布矩阵和总类内散布矩阵,,

10、2019/6/20,图象识别与人工智能研究所,38,9、计算类间散步矩阵 10、求解特征值问题,计算类内和类间散步矩阵的特征向量 (V)和特征值() 11、保留前C1个特征向量,将特征值从大到小排列,取前C1个特征值对应的特征向量,构成Fisher基向量; 12、图像向特征向量投影,首先,原始图像向正交,2019/6/20,图象识别与人工智能研究所,39,基作第一次投影,然后,第一次投影结果图像在向Fisher基向量投影。 对上例两类图像使用正交基计算Fisher判别,类均值和总均值同前,过程如下:,2019/6/20,图象识别与人工智能研究所,40,中心化第一类图像,2019/6/20,图象

11、识别与人工智能研究所,41,中心化第二类图像,2019/6/20,图象识别与人工智能研究所,42,中心化类均值为,2019/6/20,图象识别与人工智能研究所,43,计算得到的正交基,2019/6/20,图象识别与人工智能研究所,44,中心化第一类图像向正交基投影结果,2019/6/20,图象识别与人工智能研究所,45,中心化第二类图像向正交基投影结果,2019/6/20,图象识别与人工智能研究所,46,中心化均值向正交基投影结果,2019/6/20,图象识别与人工智能研究所,47,类内散布矩阵为,2019/6/20,图象识别与人工智能研究所,48,可以看出,类内散布矩阵是一个对角阵,主对角线

12、上元素是相对应于作为正交基特征向量的特征值,这是因为计算类内散布矩阵之前,图像样本已经向一个正交基投过影,投影之后的图像相互之间是正交的。,2019/6/20,图象识别与人工智能研究所,49,计算类间散布矩阵为,2019/6/20,图象识别与人工智能研究所,50,由于只有两类,仅保留一个特征向量,计算 的非零特征向量和特征值,2019/6/20,图象识别与人工智能研究所,51,经过向正交基投影处理后的图像再向上述一个特征向量投影的结果分别如下表和下图描述,2019/6/20,图象识别与人工智能研究所,52,三、构建子空间的基向量选择,计算得到的基向量全部用于构建子空间,计算量很大,而且有一些基

13、对图像分类没有什么贡献,去掉它们可能反而会改善分类性能,因此,出现若干基向量选择方法,以下讨论五种方法,它们可以单独使用,也可以作为Fisher判别的一部分。 1、标准本征空间投影,非零特征值对应所有的特征向量全部用于构建子空间; 2、舍弃最后40特征向量,按特征值从大到小排序,去掉一些分布方差方向最小的特征向量;,2019/6/20,图象识别与人工智能研究所,53,3、能量门限方法,用前 个特征值累加和与所有特征值累加和之比,作为第 个特征向量的能量描述,典型门限值为0.9; 4、分布伸展度,特征值代表样本的分布的方差,也可说是信息量,为此用第 个特征值与最大特征值的比值,表示第 个特征向量

14、的伸展度,而门限可选为0.01,2019/6/20,图象识别与人工智能研究所,54,6、消去第一个特征向量,前面三种方法假定最后一个特征向量于分类无益,本方法假定最前一个特征向量于分类无益,比如照度引起的变化只影像最前一个特征向量。 下图为能量门限和伸展度方法对FERET图像库的分类正确率,2019/6/20,图象识别与人工智能研究所,55,2019/6/20,图象识别与人工智能研究所,56,四、依赖同类图象差异排序特征向量,理想情况下,同一个人的两幅图象应当投影点到本征空间的同一个点上,位置上任何差别都是不应有的变异。另一方面,不同物体的两幅图象投影点应当尽量远的分离。我们当然期望找到能满足

15、或尽量满足上述要求的特征向量排序方法,为此,对k个特征向量中每一个都定义一个同类图像差异度量 。 令X和Y分别是同一个人的人脸图像的训练集和测试集,它们向每一个特征向量上投影,统计训练集和测试集投影坐标距离,并用对应特征值,2019/6/20,图象识别与人工智能研究所,57,规格化,也就是 ,其中 。 某个方向差别越大, 越大,反之 越小。按照 上升顺序,将特征向量排序。 参考文献:Yambor W.,Draper B.,and Beveridge J.R., (2000)Analysis of PCA-based Face Recognition Algorithms:Eigenvector Selection and Distance Measures.Second Workshop on Empirical Evaluation Methods in Computer Vision.,2019/6/20,图象识别与人工智能研究所,58,五、图像的相似性和距离度量,2019/6/20,图象识别与人工智能研究所,59,4、马氏距离 ,其中 5、互相关,描述两个图像象素的变化率,其中1表示一致的变化,1表示相反的变化,2019/6/

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 高等教育 > 大学课件

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号