武汉大学计算机学院模式识别试卷2011b卷

上传人:子 文档编号:41868594 上传时间:2018-05-31 格式:DOC 页数:4 大小:79.50KB
返回 下载 相关 举报
武汉大学计算机学院模式识别试卷2011b卷_第1页
第1页 / 共4页
武汉大学计算机学院模式识别试卷2011b卷_第2页
第2页 / 共4页
武汉大学计算机学院模式识别试卷2011b卷_第3页
第3页 / 共4页
武汉大学计算机学院模式识别试卷2011b卷_第4页
第4页 / 共4页
亲,该文档总共4页,全部预览完了,如果喜欢就下载吧!
资源描述

《武汉大学计算机学院模式识别试卷2011b卷》由会员分享,可在线阅读,更多相关《武汉大学计算机学院模式识别试卷2011b卷(4页珍藏版)》请在金锄头文库上搜索。

1、武汉大学计算机学院武汉大学计算机学院2010201020112011 学年第二学期学年第二学期 20092009 级级模式识别模式识别期末考试试题(期末考试试题(B B)一、填空题(一、填空题(15 个空,每空个空,每空 2 分,共分,共 30 分)分) 1基于机器学习的模式识别系统通常由两个过程组成, 即分类器设计和( ) 。 2统计模式识别把( )表达为一个随机向量(即特征向量), 将模式类表达为 由有穷或无穷个具有相似数值特性的模式组成的集合。 3特征一般有两种表达方法:(1)将特征表达为数值;(2)将特征表达为( )。4特征提取是指采用( )实现由模式测量空间向特征空间的转变。 5同一

2、类模式类样本的分布比较集中,没有或临界样本很少,这样的模式类称 为( )。 6加权空间的所有分界面都通过( )。 7线性多类判别: 若每两个模式类间可用判别平面分开, 在这种情况下, M 类有( )个判别函数,存在有不确定区域。 8当取 0-1 损失函数时, 最小风险贝叶斯判决准则等价于( )判决准则。 9Neyman-Pearson 决策的基本思想是( )某一错误率,同时追求另一错误 率最小。 10聚类/集群:用事先不知样本的类别,而利用样本的先验知识来构造分类器 属于( )学习。 11相似性测度、聚类准则和( )称为聚类分析的三要素。 12K/C 均值算法使用的聚类准则函数是误差平方和准则

3、,通过反复迭代优化 聚类结果,使所有样本到各自所属类别的中心的( )达到最小。 13根据神经元的不同连接方式,可将神经网络分为分层网络和相互连接型网 络两大类。其中分层网络可细分为前向网络、( )和层内互连前向网络三 种互连方式。 14神经网络的特性及能力主要取决于网络拓扑结构及( )。 15BP 神经网络是采用误差反向传播算法的多层前向网络,其中,神经元的传 输函数为 S 型函数,网络的输入和输出是一种( )映射关系。二、简答题(二、简答题(2 题,每小题题,每小题 10 分,共分,共 20 分)分) 1两类问题的最小风险 Bayes 决策的主要思想是什么?2已知一组数据的协方差矩阵为,试问

4、:11/21/21 (1)协方差矩阵中各元素的含义是什么? (2)K-L 变换的最佳准则是什么?(3)为什么说经 K-L 变换后消除了各分量之间的相关性?三、三、计算题计算题(2 题,每小题题,每小题 13 分,共分,共 26 分分)1已知有两类样本集,分别为 1=x1, x2=(1,2), (-1,0) ; 2=x3, x4 =(-1,-TT2), (1,-1) TT设初始权值 w1=(1,1,1) , k=1,试用感知器固定增量法求判别函数,画出决策T面。2设有两类正态分布的样本集,第一类均值,方差120T,第二类均值,方差,先验概111/2 1/21 222T211/2 1/21 率。试

5、按最小错误率 Bayes 决策求两类的分界面。12()()pp四、综合应用设计题四、综合应用设计题(24 分分) 在某选举投票过程中需要采用计算机对选票中的(,)三种“图像图案”进 行自动识别分类统计, “”表示投票通过, “”表示投票未通过, “”表示弃权(假 设所有 3 种“图像图案”已经从所采集的图像选票中分割出来,但各“图像图案”大 小不一) 。试运用你所学的模式识别方法设计自动分类统计“”-投票通过的人数、 “”-未通过的人数和“”-弃权的人数的技术方案。要求: 1给出总体设计方案;(8 分) 2给出对“图像图案”进行预处理、特征提取以及识别分类统计等关键设计步骤。 (16 分)B

6、卷卷一、填空题(每空一、填空题(每空 2 2 分,共分,共 3030 分)分)1.1. 分类判决, 2. 观察对象, 3. 基元, 4. 变换或映射, 5. 紧致集, 6. 坐标原点, 7. M(M-1)/2, 8. 最大后验概率, 9. 约束或限制, 10. 无监督, 11. 聚类算法, 12. 距 离平方和, 13. 具有反馈的前向网络, 14. 学习方法, 15. 非线性二、简答题(简答题(2 2 题,每小题题,每小题 1010 分,共分,共 2020 分)分)参考答案参考答案 1答:两类问题的最小风险 Bayes 决策的主要思想是:对于模式 x,如果将其 决策为模式类 1 的风险大于决

7、策为模式类 2 的风险,则决策模式 x 属于类 2;反之,决策模式 x 属于模式类 1。2答:已知协方差矩阵,则:11/21/21 (1) 其对角元素是各分量的方差,非对角元素是各分量之间的协方差。 (2) K-L 变换的最佳准则为:对一组数据按一组正交基进行分解,在只取相同数 量分量的条件下,以均方误差计算截尾误差最小。 (3) 在经 K-L 变换后,协方差矩阵成为对角矩阵,因而各主分量间的相关消除。三、计算题三、计算题(2(2 题,每小题题,每小题 1313 分,共分,共 2626 分分) )1解:先求四个模式样本的增广模式x1=(1,2,1)T x2=(-1,0,1)Tx3=(-1,-2

8、,1)T x4=(1,-1,1)T 假设初始权向量 w1=(1,1,1)T k=1 第 1 次迭代:w1Tx1=(1,1,1) (1,2,1)T=40, 所以不修正 w1w1Tx2=(1,1,1) (-1,0,1)T=0 所以修正 w1w2=w1+x2=(1,1,1)T+(-1,0,1)T=(0,1,2)Tw2Tx3=(0,1,2) (-1,-2,1)T=0 所以修正 w2 w3=w2-x3=(0,1,2)T-(-1,-2,1)T=(1,3,1)T w3Tx4=(1,3,1)T(1,-1,1)T=-10 所以不修正 w3 w3Tx2=(1,3,1) (-1,0,1)T=0 所以修正 w3 w4

9、=w3+x2=(1,3,1)T+(-1,0,1)T=(0,3,2)T w4Tx3=(0,3,2) (-1,-2,1)T=-40 所以不修正 w4 w4Tx2=(0,3,2) (-1,0,1)T=20 所以不修正 w4 w4Tx3=(0,3,2) (-1,-2,1)T=-40 所以不修正 w4 w4Tx4=(0,3,2) (1,-1,1)T=-10 所以不修正 w4 迭代结束 w4=w=(0,3,2)T, 判别函数 g(x)=w4Tx=(0,3,2) (x1,x2,1)T=3x2+22解:解:11211 111121111111 1111112222221111 12112211,.,:()()

10、()() :22()2()TTTTTTTTTTTTx x xxxxxxxxxxxxxx2T且先验概率相等基于最小错误率的Bayes决策规则, 在两类决策面分界面上的样本=() 应满足对上式进行分解有得:11 1222*11 121 1110 (1)4/32/34/32/3 2/34/32/34/3,TababAcdcdabdb cdca -1-1-11二阶矩阵的逆能很容易用逆阵公式A =计算出来A1计算公式为: =ad-bc故由已知条件可计算出和将已知条件和,1 212211212440:(4)(1)0,4,1.x xxxxxxx计算结果代入(1)式并化简计算, 得:即因此分解决策面由两根直线组成,一根为另一根为四、四、综合应用设计题综合应用设计题(24 分分) 综合能力题,答案不唯一,此略。

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 生活休闲 > 科普知识

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号