毕业设计方案(同名7203)

上传人:F****n 文档编号:99364822 上传时间:2019-09-18 格式:DOC 页数:8 大小:211.50KB
返回 下载 相关 举报
毕业设计方案(同名7203)_第1页
第1页 / 共8页
毕业设计方案(同名7203)_第2页
第2页 / 共8页
毕业设计方案(同名7203)_第3页
第3页 / 共8页
毕业设计方案(同名7203)_第4页
第4页 / 共8页
毕业设计方案(同名7203)_第5页
第5页 / 共8页
点击查看更多>>
资源描述

《毕业设计方案(同名7203)》由会员分享,可在线阅读,更多相关《毕业设计方案(同名7203)(8页珍藏版)》请在金锄头文库上搜索。

1、毕业设计方案题 目 : 基于神经网络的图像识别方法研究 学 院 : 忻州师范学院 系 别 : 计算机系 本0904班 学 号 : 3 姓 名 :杨旭东 指导老师: 曹建芳 2012年12月11日一、 选题背景与意义1 随着图像技术各种基本理论的发展,各种应用图文系统在国民经济各部门得到了广泛的应用。现在,通信、广播、计算机技术、工业自动化、国防工业、,乃至印刷、医疗等部门的尖端课题无一不与图像技术的发展密切相关。事实上,图像技术已成为各种高技术领域的汇流点,更有人预言,“图像识别技术”将是21世纪影响国民经济、国家防务和世界经济的举足轻重的关键技术。图像识别是近二十年发展起来的一门新型技术科学

2、,它以研究某些对象或者过程(统称图像)的分类与描述为主要内容。图像识别在很多领域中得到了应用,如人脸和指纹识别、字符识别、医学诊断,等等。简单的说,图像识别是图像中的物体的模式分类,同时包括物体特征的确定,如位置、方向和尺寸等。传统方法主要是统计模式识别、光学模式识别、分形识别、信息熵识别方法,但这些传统方法自适应能力很差,而且是在没有噪声干扰的情况下进行的。这几年神经网络图像识别技术作为一种新型图像识别技术,在图像识别中的应用越来越广泛。2 人工神经网络是由大规模神经元互联组成的高度非线性动力学系统,是在认识、理解人脑组织结构和运行机制的基础上模拟起结构和智能行为的一种工程系统,它具有很强的

3、学习、容错和信息处理能力,并有很高的灵活心及计算机并行性。最初,神经网络作为模式识别分类器和聚类技术在图像处理领域中得到应用,如印刷体和手写字符识别、语音识别,以及指纹、人脸识别,等等。随着人们对神经网络理论的进一步研究,神经网络在图像处理的很多领域也得到了成功的应用。如图像压缩、图像特征提取、图像变换编码,等等。如今,人工神经网络已经成为当今科学研究的热点之一。二、设计内容 1.图像识别技术的基本原理和相应的处理技术,对目前常用的图像识别方法进行了分析、讨论和比较。2.神经网络的基本原理、网络结构及网络的学习方式,研究了神经网络用于图像识别的原理及优点。3.图像识别中常用的前馈神经网络及其采

4、用的BP算法,并将具有全局优化功能的遗传算法与前馈神经网络相结合,提出了一种遗传与BP相结合的图像识别方法,解决7BP算法容易陷入局部极小的不足。并给出了仿真实验。4.支持向量机的基本知识及其分类识别的原理。详细介绍了支持向量机的分类策略和核函数的选择问题。并在此基础上,将二迸制编码引入到图像识别的支持向量机分类策略中,提高了支持向量机在图像识别中的识别速度。并在此分类策略上提出了一种动态的自动样本类别增】Jnill练方法。5.遗传一BP网络和支持向量机在车牌及人脸识别中具体的应用方法及结果分析。三、设计方案 1 引言人工神经网络(Artificial Neural Networks)(简称A

5、NN)系统从20世纪40年代末诞生至今仅短短半个世纪,但由于它具有信息的分布存储、并行处理以及自学习能力等优点,已经大信息处理、模式识别、智能是基于误差反向传播(Error Back Propagation)算法的多层前馈网络(Multiple-Layer Feedforward Network)(简称BP网络),可以以任意精度逼近任意的连续函数,所以广泛应用鱼非线性建模、函数逼近、模式分类等方面。 目标识别是模式领域的一项传统的课题,这是因为目标识别不是一个孤立的问题,而是模式识别领域中大多数课题都会遇到的问题,并且在不同的课题中,由于具体的条件不同,解决的方法也不尽相同,因而目标识别的研究

6、仍具有理论和实践意义,这里讨论的是将要识别的目标物体用成像头(红外或可见光等)摄入后形成的图像信号序列送入计算机,用神经网络识别图像的问题。2 BP神经网络2.1 BP 神经网络BP网络是采用Widrow-Hoff学习算法和非线性可微转移的多层网络。一个典型的BP网络采用的是梯度下降算法,也就是Widrow-Hoff算法规定的。Backpropagation就是指的为非线性多层网络计算梯度的方法,一个典型的BP网络结构如图1所示其中:对于第k个模式对,输出层单元的j的加权输入为该单元的实际输出为而隐含层单元i的加权输入为该单元的实际输出为函数f为可微分递减函数其算法描述如下:(1) 初始化网络

7、及学习参数,如设置网络初始权矩阵、学习因子等。(2) 提供训练模式,训练网络,直到满足学习要求。(3) 前向传播过程:对给定训练模式输入,计算网络的输出模式,并与期望模式比较,若有误差,则执行(4);否则,返回(2)。(4) 后向传播过程:a.计算同一层单元的误差;b.修正权值和阀值;c.返回(2)。2.2 BP网络隐层个数的选择 对于含有一个隐层的三层BP网络可以实现输入到输出的任何非线性映射。增加网络隐层数可以降低误差,提高精度,但同时也使网络复杂化,增加网络的训练时间。误差精度的提高也可以通过增加隐层结点数来实现。一般情况下,应优先考虑增加隐含层的结点数。2.3 隐含层神经元个数的选择当

8、用神经网络实现网络映射时,隐含层神经元个数直接影响着神经网络的学习能力和归纳能力。隐含层神经元数目较少时,网络每次学习的时间较短,但有可能因为学习不足导致网络无法记住全部学习内容;隐含层神经元数目较大时,学习能力增强,网络每次学习的时间较长,网络的存储容量随之变大,导致网络对未知输入的归纳能力下降,因为对隐含层神经元个数的选择尚无理论上的指导,一般凭经验确定。3 神经网络图像识别系统人工神经网络方法实现模式识别,可处理一些环境信息十分复杂,背景知识不清楚,推理规则不明确的问题,允许样品有较大的缺损、畸变,神经网络方法的缺点是其模型在不断丰富完善中,目前能识别的模式类还不够多,神经网络方法允许样

9、品有较大的缺损和畸变,其运行速度快,自适应性能好,具有较高的分辨率。神经网络的图像识别系统是神经网络模式识别系统的一种,原理是一致的。一般神经网络图像识别系统由预处理,特征提取和神经网络分类器组成。预处理就是将原始数据中的无用信息删除,平滑,二值化和进行幅度归一化等。神经网络图像识别系统中的特征提取部分不一定存在,这样就分为两大类: 有特征提取部分的:这一类系统实际上是传统方法与神经网络方法技术的结合,这种方法可以充分利用人的经验来获取模式特征以及神经网络分类能力来识别目标图像。特征提取必须能反应整个图像的特征。但它的抗干扰能力不如第2类。 无特征提取部分的:省去特征抽取,整副图像直接作为神经

10、网络的输入,这种方式下,系统的神经网络结构的复杂度大大增加了,输入模式维数的增加导致了网络规模的庞大。此外,神经网络结构需要完全自己消除模式变形的影响。但是网络的抗干扰性能好,识别率高。本文采用无特征提取的神经网络识别方法。 当BP 网用于分类时,首先要选择各类的样本进行训练,类样本的个数要近似相等。其原因在于一方面防止训练后网络对样本多的类别响应过于敏感而对样本数少的类别不敏感。另一方面可以大幅度提高训练速度,避免网络陷入局部最小点。由于BP 网络不具有不变识别的能力,所以要使网络对模式的平移、旋转、伸缩具有不变性,要尽可能选择各种可能情况的样本。例如要选择不同姿态、不同方位、不同角度、不同

11、背景等有代表性的样本,这样可以保证网络有较高的识别率。构造神经网络分类器首先要选择适当的网络结构:神经网络分类器的输入就是图像的特征向量;神经网络分类器的输出节点应该是类别数。隐层数要选好,每层神经元数要合适,目前有很多采用一层隐层的网络结构。然后要选择适当的学习算法,这样才会有很好的识别效果。在学习阶段应该用大量的样本进行训练学习,通过样本的大量学习对神经网络的各层网络的连接权值进行修正,使其对样本有正确的识别结果,这就像人记数字一样,网络中的神经元就像是人脑细胞,权值的改变就像是人脑细胞的相互作用的改变,神经网络在样本学习中就像人记数字一样,学习样本时的网络权值调整就相当于人记住各个数字的

12、形象,网络权值就是网络记住的内容,网络学习阶段就像人由不认识数字到认识数字反复学习过程是一样的。神经网络是按整个特征向量的整体来记忆图像的,只要大多数特征符合曾学习过的样本就可识别为同一类别,所以当样本存在较大噪声时神经网络分类器仍可正确识别。在图像识别阶段,只要将图像的点阵向量作为神经网络分类器的输入,经过网络的计算,分类器的输出就是识别结果。4 仿真实验4.1 实验对象本实验用MATLAB 完成了对神经网络的训练和图像识别模拟。从实验数据库中选择09 这十个数字的BMP 格式的目标图像。图像大小为168 像素,每个目标图像分别加10、20、30、40、50大小的随机噪声,共产生60 个图像

13、样本。将样本分为两个部分,一部分用于训练,另一部分用于测试。实验中用于训练的样本为40个,用于测试的样本为20 个。随机噪声调用函数randn(m,n)产生。4.2 网络结构本试验采用三层的BP 网络,输入层神经元个数等于样本图像的象素个数168 个。隐含层选24 个神经元,这是在试验中试出的较理想的隐层结点数。输出层神经元个数就是要识别的模式数目,此例中有10 个模式,所以输出层神经元选择10 个,10 个神经元与10 个模式一一对应。4.3 基于MATLAB 语言的网络训练与仿真建立并初始化网络% =S1 = 24;% 隐层神经元数目S1 选为24R,Q = size(numdata);S

14、2,Q = size(targets);F = numdata;P=double(F);net = newff(minmax(P),S1 S2,logsiglogsig,traingda,learngdm)这里numdata 为训练样本矩阵,大小为12840, targets 为对应的目标输出矩阵,大小为1040。newff(PR,S1 S2SN,TF1 TF2TFN,BTF,BLF,PF)为MATLAB 函数库中建立一个N 层前向BP 网络的函数,函数的自变量PR 表示网络输入矢量取值范围的矩阵Pmin Pmax;S1SN 为各层神经元的个数;TF1TFN 用于指定各层神经元的传递函数;BTF 用于指定网络的训练函数;BLF 用于指定权值和阀值的学习函数;PF 用于指定网络的性能函数,缺省值为mse。设置训练参数net.performFcn = sse; %平方和误差性能函数net.trainParam.goal = 0.1; %平方和误差目标net.trainParam.show = 20; %进程显示频率net.trainParam.epochs = 5000;%最大训练步数net.trainParam.mc = 0.95; %动量常数网络训练net=init(net);%初始化网络net,tr = train(net,P,T);网络训练对训练好的网

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > 教学/培训

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号