模式识别习题及答案.doc

上传人:M****1 文档编号:554878199 上传时间:2023-04-12 格式:DOC 页数:8 大小:580.50KB
返回 下载 相关 举报
模式识别习题及答案.doc_第1页
第1页 / 共8页
模式识别习题及答案.doc_第2页
第2页 / 共8页
模式识别习题及答案.doc_第3页
第3页 / 共8页
模式识别习题及答案.doc_第4页
第4页 / 共8页
模式识别习题及答案.doc_第5页
第5页 / 共8页
点击查看更多>>
资源描述

《模式识别习题及答案.doc》由会员分享,可在线阅读,更多相关《模式识别习题及答案.doc(8页珍藏版)》请在金锄头文库上搜索。

1、第一章绪论1. 什么是模式详细事物所拥有的信息。模式所指的不是事物自己,而是我们从事物中获取的_信息_。2. 模式识其他定义让计算机来判断事物。3.模式辨别系统主要由哪些部分构成数据获取预办理特色提取与选择分类器设计/分类决议。第二章贝叶斯决议理论假如p(x|w1)_p(w2)/p(w1wl(x)|w2)_,则xp(xw121.最小错误率贝叶斯决议过程P(wi|x)P(x|wi)P(wi)答:已知先验概率,类条件概率。利用贝叶斯公式2P(x|wj)P(wj)获取后验概率。依据后验概率大小进行决议剖析。j12.最小错误率贝叶斯分类器设计过程答:依据训练数据求出先验概率P(wi),i1,2类条件概

2、率散布p(x|wi),i1,2P(x|wi)P(wi)利用贝叶斯公式获取后验概率P(wi|x)2P(x|wj)P(wj)j1假如输入待测样本X,计算X的后验概率依据后验概率大小进行分类决议剖析。3. 最小错误率贝叶斯决议规则有哪几种常用的表示形式答:4 .贝叶斯决议为何称为最小错误率贝叶斯决议答:最小错误率Bayes决议使得每个观察值下的条件错误率最小因此保证了(均匀)错误率最小。Bayes决议是最优决议:即,能使决议错误率最小。5.贝叶斯决议是由先验概率和(类条件概率)概率,推导(后验概率)概率,而后利用这个概率进行决议。6 .利用乘法法例和全概率公式证明贝叶斯公式p(AB)p(A|B)p(

3、B)p(B|A)p(A)P(Ai|B)P(B|Ai)P(Ai)答:m所以推出贝叶斯公式P(B)P(B|Ai)P(Ai)p(B|Aj)p(Aj)p(B)Mj1P(B|Aj)P(Aj)j17.朴实贝叶斯方法的条件独立假定是(P(x|i)=P(x1,x2,xn|i)=P(x1|i)P(x2|i)P(xn|i))8. 如何利用朴实贝叶斯方法获取各个属性的类条件概率散布答:假定各属性独立,P(x|i)=P(x1,x2,xn|i)=P(x1|i)P(x2|i)P(xn|i)后验概率:P(i|x)=P(i)P(x1|i)P(x2|i)P(xn|i)类型清楚的直接分类算,假如是数据连续的,假定属性听从正态散布

4、,算出每个类的均值方差,最后获取类条件概率散布。1mxi方差:var(x)1m(xix)2均值:mean(x)mmi11i19.计算属性MaritalStatus的类条件概率散布给表格计算,婚姻状况几个类型和分类几个就求出多少个类条件概率。10,朴实贝叶斯分类器的优弊端答:分类器简单实现。面对孤立的噪声点,朴实贝叶斯分类器是强健的。由于在从数据中预计条件概率时。这些点被均匀。面对没关属性,该分类器是强健的。有关属性可能降低分类器的性能。由于对这些属性,条件独立的假定已不建立。11.我们将区分决议域的界限称为(决议面),在数学上用能够表示成(决议面方程)12.用于表达决议规则的函数称为(鉴别函数

5、)gi(x)ln(p(x|i)P(i)13.鉴别函数与决议面方程是亲密有关的,且它们都由相应的决议规则所确立.14.写出多元正态概率下T的最小1错误率贝叶斯决议的鉴别函数,即1(x)i(x)2iid21lnlnP(i)ln2i215.多元正态概率下的最小错误率贝叶斯决议的决议面方程为gi(x)gj(x)016.多元正态概率下的最小错误率贝叶斯决策,当类条件概率散布的协方差矩阵为i2时,每类的协方差矩阵相等,且类内各特色间(互相独立),并拥有相等的方差。17.多元正态概率下的最小错误率贝叶斯决议,假如先验概率相等,并i2且i=1,2,.c,那么分类问题转变为只需计算待测样本x到各种均值的(欧式距

6、离),而后把x归于拥有(最小距离平方)的类。这类分类器称为(最小距离分类器)。18.19.多元正态概率下的最小错误率贝叶斯决议,类条件概率密度各种的协方差矩阵不相等时,决议面是(超二次曲面),鉴别函数是(二次型)第三章概率密度函数的预计1.类条件概率密度预计的两种主要方法(参数预计)和(非参数预计)。2.类条件概率密度预计的非参数预计有两种主要的方法(Parzen窗法)和(KN近邻法)。它们的基来源理都是鉴于样本对散布的(未知)原则。K3.假如有N个样本,能够计算样本邻域的体积V,而后获取V中的样本数k,那么P(x)=NV4. 假定正常细胞和癌细胞的样本的类条件概率听从多元正态分布,使用最大似

7、然预计方法,对概率密度的参数预计的结果为。N率密度的参数预计的结果以下:证明:使用最大似然预计方法,对一元正态概2?1xk1N1(xk?)2Nk21Nk15.已知5个样本和2个属性构成的数据集中,w1类有3个样本,w2类有两个样本。假如使用贝p(叶x斯|方i)法设N计(分类i,器i,)需要获i1,得2各种样本的条件概率散布,现假定样本听从多元正态分布则只需获取散布的参数均值向量和协方差矩阵即可,那么采纳最大似然预计获取的w1类的202类条件概率密度均值向量为(2,3转置),以及协方差矩阵为(022)。224第四章线性鉴别函数x1(1,3,2)Tx2(1,2,3)T1.已知两类问题的样本集中,有

8、两个样本。属于类,属于类,对它们进行增广后,这两个样本的增广样安分别为y1=(1,1,-3,2)T,y2=(-1,-1,-2,3)T2. 广义线性鉴别函数主假如利用(映照)原理解决(一般函数不可以解决的高次鉴别函数)问题,利用广义线性鉴别函数设计分类器可能致使(维数灾害)。3. 线性分类器设计步骤主要步骤:1. 采集训练数据集D=x1,x2,xN2. 按需要确立一个准则函数J(D,w,w0)或J(D,a),其值反应分类器的性能,其极值解对应于“最好”决议。J的极值解w*,w*g或(a*x)。(w*)Txw0,g(x)(a*)Ty3.用最优化技术求准则函数4. 最后,获取线性鉴别函数,达成分类器

9、设计5.线性鉴别函数g(x)的几何表示是:点x到决议面H的(距离的一种代数胸怀)。6. 增广样本向量使特色空间增添了(一)维,但样本在新的空间中保持了样本间的(欧氏距离)不变,关于分类成效也与原决议面同样。在新的空间中决议面H经过坐标(原点)准则的基来源理为:找到一个最适合的投影轴,使_(类间)在该轴上投影之间的距离尽可能SbwTSw远,而(类内)的投影尽可能紧凑,进而使分类成效为最正确。b8.FisherJF(w)SS2wTSww准则函数的定义为19Fisher方法中,样本类内失散度矩阵Si与总类内失散度矩阵Sw分别为SiT,i1,2SwS1S2(xmi)(xmi)xDi*1线性判其他准则函

10、数极大化,最后能够获取的鉴别函数10.利用Lagrange乘子法使FisherwSw(m1m2)权向量11.表达Fisher算法的基来源理。Fisher准则的基来源理:找到一个最适合的投影轴,使两类样本在该轴上投影之间的距离尽可能远,而每一类样本的投影尽可能紧凑,进而使分类成效为最正确。12Tx(1,3,2)Tx2(1,2,3)113.已知两类问题的样本集中,有两个样本。属于w1类,属于w2类,对它们进行增广规范化后,这两个样本的规范化增广样安分别为y1=(1,1,-3,2)转置和y2=(1,-1,-2,3)转置。14. 表达感知准则的梯度降落算法的基本过程。答:1.初值:任意给定一直量初始值a(1)2.迭代:第k+1次迭代时的权向量a(k+1)等于第k次的权向量a(k)有样本之和与pk的乘积加上被错分类的所

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 大杂烩/其它

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号