《遥感原理与应用分析课件》由会员分享,可在线阅读,更多相关《遥感原理与应用分析课件(75页珍藏版)》请在金锄头文库上搜索。
1、第八章遥感图像自动识别分类 内容提纲基础知识特征变换和特征选择监督分类非监督分类监督分类和非监督分类的结合分类后处理和误差分析非光谱信息分类句法模式识别自动分类新方法概述遥感图像的计算机分类,是模式识别技术在遥感技术领域中的具体运用 目视判读是人类的自然识别智能 计算机分类是人工模拟人类的识别功能采用决策理论或统计方法提取一组反映模式属性的量测值,称之为特征 光谱特征和纹理特征 8.1基础知识模式与模式识别光谱特征空间地物在特征空间中的聚类统计特性8.1.1模式与模式识别一个模式识别系统对被识别的模式作一系列的测量,然后将测量结果与“模式字典”中一组“典型的”测量值相比较。若和字典中某一“词目
2、”的比较结果是吻合或比较吻合,则我们就可以得出所需要的分类结果。这一过程称为模式识别 。这一组测量值就是一种模式 。模式与模式识别数据数据数据数据获获取取取取模式模式模式模式分割分割分割分割模式模式模式模式识别识别姚明姚明ROCKETS11模式识别的应用车车牌牌牌牌识别识别模式识别的应用信函分信函分信函分信函分拣拣模式识别的应用遥感影像分遥感影像分遥感影像分遥感影像分类类8.1.2光谱特征空间不同的地物在同一波段图像上表现的亮度一般互不相同 不同的地物在多个波段图像上亮度的呈现规律也不相同 同名地物点在不同波段图像中亮度的观测量将构成一个多维随机向量X,称为光谱特征向量 如TM图像上任一个点T
3、M=TM1,TM2,TM3,TM4,TM5,TM6,TM7地物与光谱特征空间的关系 地物在特征空间中的聚类情况地物在特征空间中的聚类统计特性地物在特征空间的聚类通常是用特征点(或其相应的随机矢量)分布的概率密度函数来表示 8.2特征变换和特征选择目的:减少参加分类的特征图像的数目,从原始信息中抽取能更好进行分类的特征图像。特征变换将原有的m 量值集合通过某种变换,然后产生n个(nm)特征 特征选择从原有的m个测量值集合中,按某一准则选择出n个特征 8.2.1特征变换概念:将原始图像通过一定的数字变换生成一组新的特征图像,这一组新图像信息集中在少数几个特征图像上。目的:数据量有所减少,去相关,有
4、助于分类。常用的特征变换:主分量变换、哈达玛变换、穗帽变换、比值变换、生物量指标变换。redNIRScatter Plot reveals relationship between information in two bandshere:correlation coefficient = 0.137redNIRPrincipal Components Analysiscorrelation between all bandsTM datacorrelation coefficients : 1.000 0.927 0.874 0.069 0.593 0.426 0.736 0.927 1.0
5、00 0.954 0.172 0.691 0.446 0.800 0.874 0.954 1.000 0.137 0.740 0.433 0.812 0.069 0.172 0.137 1.000 0.369 -0.084 0.119 0.593 0.691 0.740 0.369 1.000 0.534 0.891 0.426 0.446 0.433 -0.084 0.534 1.000 0.671 0.736 0.800 0.812 0.119 0.891 0.671 1.0001.主分量变换主分量变换也称为KL变换,是一种线性变换,是就均方误差最小来说的最佳正交变换KL变换能够把原来多个
6、波段中的有用信息集中到数目尽可能少的特征图像组中去,达到数据压缩的目的。KL变换还能够使新的特征图像间互不相关,使新的特征图像包含的信息内容不重叠,增加类别的可分性。主分量变换计算步骤(1)计算均值向量M和协方差矩阵C;(2)计算矩阵C的特征值和特征向量;(3)将特征值按由大到小的次序排序(4)选择前几个特征值对应的几个特征向量构造变换矩阵n。(5)根据nX进行变换,得到的新特征影像就是变换的结果,X为多光谱图像的一个光谱特征矢量。MSS主分量变换前后的信息量分布TM主分量变换前后的信息量分布主分量变换PC-1PC-72.哈达玛变换哈达玛变换是利用哈达玛矩阵作为变换矩阵新实施的遥感多光谱域变换
7、。哈达玛矩阵的变换核为哈达玛变换哈达玛矩阵的维数N总是2的倍数 每个高阶哈达玛矩阵都由其低一阶的哈达玛矩阵按如下形式组成 哈达玛变换定义为:哈达玛变换的几何意义由哈达玛变换核可知,哈达玛变换实际是将坐标轴旋转了45的正交变换 哈达玛变换的几何意义以四波段的陆地卫星图像的哈达玛为换为例 ,取二阶哈达玛变换矩阵 h0=(x4+x5)+(x6+x7)h1=( x4+x5)-( x6+x7)h2=( x4-x5)-( x6-x7)h3=( x4-x5)+( x6-x7) 哈达玛变换的几何意义特征图像h0把水同土壤与植被的混合体区分开来特征图像h1把植被同水和土壤的混合体区分开来特征图像h3和特征图像h
8、2主要表现为噪声图像,通常在特征选择过程中可舍去,达到数据压缩的目的。 3.穗帽变换又称K-T变换,由KauthThomas提出,也是一种线性特征变换。MSS图像信息随时间变化的空间分布形态是呈规律性形状的,像一个顶部有缨子的毡帽。特点1:在MSS图像中,土壤在特征空间(光谱空间)的集群,随亮度的变化趋势沿从坐标原点出发的同一根辐射线方向上出现。特点2:若把土壤和植被的混合集群投影到MSS5和MSS6波段图像所组成的特征子空间中,形成一个近似的帽状三角形 穗帽变换Y=AXY=(ISB IGV IY IN)TX=(X4 X5 X6 X7)ISB土壤亮度轴的像元亮度值IGV植物绿色指标轴的像元亮度
9、值IY黄色轴IN噪声轴Xi地物在MSS四个波段上的亮度值 SB分量和GV分量一般情况下等价于主分量变换中的第一主分量PCI和第二主分量PC2 SB分量集中了大部分土壤信息,所以对土壤的分类是有效的 GV分量对植被的分类是有效的 4.生物量指标变换Ibio生物量变换后的亮度值。x7,x5为MSS7和MSS5图像的像元亮度值。经变换后,植物、土壤和水都分离开来,因此可独立地对绿色植物量进行统计。生物量指标变换8.2.2特征选择选择一组最佳的特征影像进行分类定量选择方法距离测度散布矩阵测度类内散矩阵类间散布矩阵总体散布矩阵=+TM7,4,1TM5,7,2TM5,4,3TM4,3,2前面所述内容主要为
10、分类前的预处理。预处理工作结束后,就将参与分类的数据准备,接下来的工作就是从这些数据提供的信息中让计算机“找”出所需识别的类别方式有两种:一种就是监督分类法;另一种称为非监督分类法。下面先介绍监督分类法。 8.3监督分类监督分类:是基于我们对遥感图像上样本区内地物的类属已知,于是可以利用这些样本类别的特征作为依据来识别非样本数据的类别。 监督分类的思想:首先根据已知的样本类别和类别的先验知识,确定判别函数和相应的判别准则,其中利用一定数量的已知类别函数中求解待定参数的过程称之为学习或训练,然后将未知类别的样本的观测值代入判别函数,再依据判别准则对该样本的所属类别作出判定。 监督分类判别函数和判
11、别规则分类过程判别函数和判别规则各个类别的判别区域确定后,某个特征矢量属于哪个类别可以用一些函数来表示和鉴别,这些函数就称为判别函数。 当计算完某个矢量,在不同类别判决函数中的值后,我们要确定该矢量属于某类必须给出一个判断的依据。如若所得函数值最大则该矢量属于最大值对应的类别。这种判断的依据,我们称之为判别规则。 概率判别函数:概率判别函数:某特征矢量(X)落入某类集群的条件概率贝叶斯判别规则:贝叶斯判别规则:把X落入某集群 的条件概率 最大的类为X的类别。贝叶斯判别规则以错分概率或风险最小为准则的判别规则。假设:同类地物在特征空间服从正态分布,则类别的概率密度函数如式(8-2)所示。根据贝叶
12、斯公式可得:最大似然分类法最大似然分类法概率判别函数:相应的贝叶斯判别规则:若对于所有可能的j=1,2 ,m;j i有 ,则X属于类 。判决边界为 (假设有两类)。最大似然法分类的错分概率错分概率是类别判决分界两侧做出不正确判决的概率之和。贝叶斯判决边界使这个数错误为最小,因为这个判决边界无论向左还是向右移都将包括不是1类便是2类的一个更大的面积,从而增加总的错分概率。,贝叶斯判决规则是以错分概率最小的最优准则。 最小距离分类法基本思想:计算未知矢量X到有关类别集群之间的距离,哪类距离它最近,该未知矢量就属于哪类。马氏距离欧氏距离计程距离错分概率及判决边界盒式分类法 基本思想:首先通过训练样区
13、的数据找出每个类别在特征空间的位置和形状,然后以一个包括该集群的“盒子”作为该集群的判别函数。判决规则为若未知矢量X落入该“盒子”,则X分为此类,否则再与其它盒子比较。 8.3.2分类过程(1)确定感兴趣的类别数(2)特征变换和特征选择(3)选择训练样区(4)确定判决函数和判决规则(5)根据判决函数和判决规则对非训练样区的图像区域进行分类(1)对训练样区的要求准确性、代表性和统计性。准确性:要确保选择的样区与实际地物一致;代表性:所选样区为某一地物的代表,还要考虑到地物本身的复杂性,反映同类地物光谱特性的波动情况;统计性:指选择的训练样区内必须有足够多的像元,以保证由此计算出的类别参数符合统计
14、规律。(2)初始类别参数的形成(3)样本数据的训练计算每个类别的M 和,建立类别的判别函数(4)逐像素分类判别分类得到专题图监督分类流程原始图像的预处理原始图像的预处理原始图像的预处理原始图像的预处理训练样区的选择与评估训练样区的选择与评估训练样区的选择与评估训练样区的选择与评估不合格不合格不合格不合格特征提取和特征选择特征提取和特征选择特征提取和特征选择特征提取和特征选择分类精度评价分类精度评价分类精度评价分类精度评价成果输出成果输出成果输出成果输出精度合格精度合格精度合格精度合格精度不合格精度不合格精度不合格精度不合格通过训练样区误差矩阵和分类预警评价、通过训练样区误差矩阵和分类预警评价、
15、通过训练样区误差矩阵和分类预警评价、通过训练样区误差矩阵和分类预警评价、样本可分性度量判断训练样区是否合格样本可分性度量判断训练样区是否合格样本可分性度量判断训练样区是否合格样本可分性度量判断训练样区是否合格合合合合 格格格格分类器选择及分类运算分类器选择及分类运算分类器选择及分类运算分类器选择及分类运算监督分类的缺点主观性由于图像中间类别的光谱差异,使得训练样本没有很好的代表性训练样本的获取和评估花费较多人力时间只能识别训练中定义的类别8.4非监督分类非监督分类:也称聚类分析,是事先对分类过程不施加任何先验知识,仅凭遥感图像地物的光谱特征的分布规律,进行自动分类。分类方法:K-均值聚类法IS
16、ODATA算法聚类分析平行管道发聚类分析8.4.1K-均值聚类法算法准则:多模式点到类别中心的距离的平方和最小。算法步骤:(1)选择m个类的初始中心(2)按照到类中心距离最小的原则对像元分类(3)重新计算类中心(4)类中心不变,算法结束;否则返回(2)8.4.1K-均值聚类法8.4.2ISODATA算法聚类分析第一,它不是每调整一个样本的类别就重新计算一次各类样本的均值,而是在每次把所有样本都调整完毕之后才重新计算一次各类样本的均值,前者称为逐个样本修正法,后者称为成批样本修正法。第二,ISODATA算法不仅可以通过调整样本所属类别完成样本的聚类分析,而且可以自动地进行类别的“合并”和“分裂”
17、,从而得到类数比较合理的聚类结果。 ISODATA算法1.初始化(迭代次数;分类数,类类间的初始阈值,类类初始方差、一个类最小象元数);2.选择初始中心(随即选;灰度范围对应相应等级);3.按一定规则(如距离最小)对所有像元划分;4.重新计算每个集群的均值和方差;按初始化的参数进行分裂(类类方差超过初始值、类别数小于初始类别数一半、迭代次数有关)和合并(类间距离小于类间初始化阈值、类别数大于所希望类别数两倍、迭代次数有关)5.结束,迭代次数或者两次迭代之间类别均值变化小于阈值;6.否则,重复3-5;7.确认类别(实地考察),精度评定.8.4.3平行管道法聚类分析以地物的光谱特性曲线为基础,假定
18、同类地物的光谱特性曲线相似作为判决的标准。设置一个相似阈值 同类地物在特征空间上表现为以特征曲线为中心,以相似阈值为半径的管子,此即为所谓的“平行管道”。 非监督分类结果非监督分类特点优点不需要预先对所分类别的区域有广泛的了解,需要用一定的知识来解释得到的集群组;人为误差的机会减少;量小的类别能被区分。缺点得到的集群组类别不一定对应分析者想要的类别;难对产生的类别进行控制;不同图像之间的对比困难。8.5非监督分类和监督分类的结合选择一些有代表性的区域进行非监督分类。获得多个聚类类别的先验知识。特征选择。选择最适合的特征图像进行后续分类。使用监督法对整个影像进行分类。 输出标记图像。 8.6分类
19、后处理和误差分析分类后处理误差分析8.6.1分类后处理用光谱信息对影像逐个像元地分类,在结果的分类地图上会出现“噪声” 。分类是正确的,但某种类别零星分布于地面,占的面积很小 ,希望用综合的方法使它从图面上消失。分类平滑技术可以解决以上的问题。逻辑运算,非代数运算。处理原则服从多数原则。多数平滑过程多数平滑8.6.2分类后误差分析采用混淆矩阵来进行分类精度的评定。对检核分类精度的样区内所有的像元,统计其分类图中的类别与实际类别之间的混淆程度。混淆矩阵中,对角线上元素为被正确分类的样本数目,非对角线上的元素为被混分的样本数。混淆矩阵表中每一项都是实际检验的像元占该类总像元数的百分率。根据这个混淆
20、矩阵可以算出平均精度,对角线元素之和取平均:S=(84.3%+80.3%+89.8%)/3=84.8%由于各种类别样本元素的总数不一致,所以更合理的方法应加权平均,以总精度S表示加权平均,则:S=(84.3%102+80.3%152+89.8%49)/(102+152+49)=83.2% 针对误差矩阵的统计估计量 总体分类精度 :表述的是对每一个随机样本,所分类的结果与地面所对应区域的实际类型相一致的概率。用户精度:表示从分类结果(如分类产生的类型图)中任取一个随机样本,其所具有的类型与地面实际类型相同的条件概率。制图精度:它表示相对于地面获得的实际资料中的任意一个随机样本,分类图上同一地点的分类结果与其相一致的条件概率。Kappa分析 本章结束