神经网络基本原理sxf

上传人:新** 文档编号:586609831 上传时间:2024-09-05 格式:PPT 页数:77 大小:459.50KB
返回 下载 相关 举报
神经网络基本原理sxf_第1页
第1页 / 共77页
神经网络基本原理sxf_第2页
第2页 / 共77页
神经网络基本原理sxf_第3页
第3页 / 共77页
神经网络基本原理sxf_第4页
第4页 / 共77页
神经网络基本原理sxf_第5页
第5页 / 共77页
点击查看更多>>
资源描述

《神经网络基本原理sxf》由会员分享,可在线阅读,更多相关《神经网络基本原理sxf(77页珍藏版)》请在金锄头文库上搜索。

1、人工神经网络人工神经网络(Artificial Neural Netwroks -ANN) 形蜒覆篡涎呻扁紧颜反鼻醉桩族梨掳妇匡淘啮雾脾娇盛祷微喀掀柠脓房弗神经网络基本原理sxf神经网络基本原理sxf1 人工神经网络(人工神经网络( ANN,Artificial Neural Network)也简称为也简称为神经网络神经网络(NN),),是由大量的简是由大量的简单处理单元经广泛并行互连形成的一种网络系统。它是单处理单元经广泛并行互连形成的一种网络系统。它是对人脑系统的简化、抽象和模拟,具有人脑功能的许多对人脑系统的简化、抽象和模拟,具有人脑功能的许多基本特征。基本特征。 目前,人工神经网络已成

2、为许多高科技领域的一个目前,人工神经网络已成为许多高科技领域的一个热门话题。在人工智能领域,它已实际应用于决策支持、热门话题。在人工智能领域,它已实际应用于决策支持、模式识别、专家系统、机器学习等许多方面。模式识别、专家系统、机器学习等许多方面。碧清嘉都焙链邀霓谬森炙袭毗界笆躺纫拄网誊次知戎圃麦谴栓池仕附肚毁神经网络基本原理sxf神经网络基本原理sxf2 由于神经网络是多学科交叉的产物,各个相由于神经网络是多学科交叉的产物,各个相关的学科领域对神经网络都有各自的看法,因此,关的学科领域对神经网络都有各自的看法,因此,关于神经网络的定义,在科学界存在许多不同的关于神经网络的定义,在科学界存在许多

3、不同的见解。目前使用得较广泛的是见解。目前使用得较广泛的是T.Koholen(芬兰赫尔芬兰赫尔辛基技术大学辛基技术大学 )的定义,即)的定义,即神经网络是由具有适应性神经网络是由具有适应性的的简单单元简单单元组成的广泛组成的广泛并行互连并行互连的网络,它的组的网络,它的组织能够模拟生物神经系统对真实世界物体所作出织能够模拟生物神经系统对真实世界物体所作出的交互反应。的交互反应。拧染踪照骸拔免柠陵棘已窝撩富颓免访期指蓬症锗藏袋辗用疮停憨役垒疡神经网络基本原理sxf神经网络基本原理sxf3 人脑的基本组成是脑神经细胞,大量脑人脑的基本组成是脑神经细胞,大量脑神经细胞相互联接组成人的大脑神经网络,神

4、经细胞相互联接组成人的大脑神经网络,完成各种大脑功能。而完成各种大脑功能。而人工神经网络则是由人工神经网络则是由大量的人工神经细胞(神经元)经广泛互连大量的人工神经细胞(神经元)经广泛互连形成的人工网络,以此模拟人类神经系统的形成的人工网络,以此模拟人类神经系统的结构和功能。结构和功能。 了解人脑神经网络的组成和原理,有助了解人脑神经网络的组成和原理,有助于对人工神经网络的理解。于对人工神经网络的理解。 趴猾钓装雇恶迁埋悍疚奴扦梢倔亏澜法电箕癣光弟罪帘散颈涣既透泌片暇神经网络基本原理sxf神经网络基本原理sxf4人工神经网络概述人体神经结构与特征人体神经结构与特征虽然神然神经元的形元的形态各不

5、相同,但是都由各不相同,但是都由细胞体和突起两大胞体和突起两大部分部分组成,而突起又分成,而突起又分树突和突和轴突。突。豺诵浙乒览癸柞辩潮姑品邦五哎亩颅宇片根锅芦晰次陵稿拿邮物荫统诵捅神经网络基本原理sxf神经网络基本原理sxf5轴突轴突是由细胞体向外延伸出的所有纤维中最长的一条是由细胞体向外延伸出的所有纤维中最长的一条分枝,用来向外传递神经元产生的输出信号。每个神分枝,用来向外传递神经元产生的输出信号。每个神经元只发出一条轴突,短的仅几个微米,其最大长度经元只发出一条轴突,短的仅几个微米,其最大长度可达可达1m以上。以上。荧寨亏飘战铀娄毯欢殃泰固插毫弗果举场呕炕纺林沤倦堤蕴竖码椅侈食阵神经网

6、络基本原理sxf神经网络基本原理sxf6突触,突触,在轴突的末端形成了许多很细的分枝,这些分枝叫神经末梢。每一在轴突的末端形成了许多很细的分枝,这些分枝叫神经末梢。每一条神经末梢可以与其他神经元形成条神经末梢可以与其他神经元形成功能性接触功能性接触,该接触部位称为,该接触部位称为突触突触。每每个神经元大约有个神经元大约有103105个突触,换句话说,每个神经元大约与个突触,换句话说,每个神经元大约与103105个个其它神经元有连接,正是因为这些突触才使得全部大脑神经元形成一个复其它神经元有连接,正是因为这些突触才使得全部大脑神经元形成一个复杂的网络结构。杂的网络结构。 所谓功能性接触,所谓功能

7、性接触,突触的信息传递特性可变,因此细胞之间的连接强突触的信息传递特性可变,因此细胞之间的连接强度可变,这是一种柔性连接,也称为神经元结构的可塑性度可变,这是一种柔性连接,也称为神经元结构的可塑性,这正是神经元,这正是神经元之间传递信息的奥秘之一。之间传递信息的奥秘之一。铲瞅奏汀颜瓤舌澡就告甸磺导郸告牲琳馁赶腥王色江挡瓶槐壮徒枢歪青些神经网络基本原理sxf神经网络基本原理sxf7树突树突是指由细胞体向外延伸的除轴突以外的其他所是指由细胞体向外延伸的除轴突以外的其他所有分支。不同的神经元其树突的数量也不同,长度有分支。不同的神经元其树突的数量也不同,长度较短,但数量很多,它是神经元的输入端,用于

8、接较短,但数量很多,它是神经元的输入端,用于接受从其他神经元的突触传来的信号。受从其他神经元的突触传来的信号。细胞体细胞体是神经元的主体,胞体和树突表面是接受的是神经元的主体,胞体和树突表面是接受的其他神经元传来的信号的主要部位。其他神经元传来的信号的主要部位。哲萤犊朋熟案当病耳捏滤椎汛赵维薛吃蜂攻胺锨牟肝锻儒袍而韧蛇狐君从神经网络基本原理sxf神经网络基本原理sxf8 神经元中的细胞体相当于一个初等处理器,它对来自其他神经元中的细胞体相当于一个初等处理器,它对来自其他各个神经元的信号进行总体求和,并产生一个神经输出信号。由各个神经元的信号进行总体求和,并产生一个神经输出信号。由于细胞膜将细胞

9、体内外分开,因此,在细胞体的内外具有不同的于细胞膜将细胞体内外分开,因此,在细胞体的内外具有不同的电位,通常是内部电位比外部电位低。细胞膜内外的电位之差被电位,通常是内部电位比外部电位低。细胞膜内外的电位之差被称为称为膜电位膜电位。在无信号输入时的膜电位称为。在无信号输入时的膜电位称为静止膜电位静止膜电位。当一个。当一个神经元的所有输入总效应达到某个阈值电位时,该细胞变为活性神经元的所有输入总效应达到某个阈值电位时,该细胞变为活性细胞(激活),其膜电位将自发地急剧升高产生一个电脉冲。这细胞(激活),其膜电位将自发地急剧升高产生一个电脉冲。这个电脉冲又会从细胞体出发沿轴突到达神经末梢,并经与其他

10、神个电脉冲又会从细胞体出发沿轴突到达神经末梢,并经与其他神经元连接的突触,将这一电脉冲传给相应的神经元。经元连接的突触,将这一电脉冲传给相应的神经元。柱蹲卓为展偿侦袄蓖栅堑影珍匙悉译稽构阶煤稚琐阎棚渗挣抱真昌驶翰荐神经网络基本原理sxf神经网络基本原理sxf9生物神经元的功能与特征生物神经元的功能与特征根据神经生理学的研究,生物神经元具有如下重要功能与特性。根据神经生理学的研究,生物神经元具有如下重要功能与特性。(1)时空整合功能)时空整合功能神经元对不同时间通过同一突触传入的神经冲动,具有神经元对不同时间通过同一突触传入的神经冲动,具有时间整合时间整合功能功能。对于同一时间通过不同突触传入的

11、神经冲动,具有。对于同一时间通过不同突触传入的神经冲动,具有空间整空间整合功能合功能。两种功能相互结合,使生物神经元对由突触传入的神经。两种功能相互结合,使生物神经元对由突触传入的神经冲动具有时空整合的功能。冲动具有时空整合的功能。(2)兴奋与抑制状态)兴奋与抑制状态神经元具有神经元具有兴奋兴奋和和抑制抑制两种常规的工作状态。当传入冲动的时空两种常规的工作状态。当传入冲动的时空整合结果使细胞膜电位升高,超过动作电位的阈值时,细胞进入整合结果使细胞膜电位升高,超过动作电位的阈值时,细胞进入兴奋状态,产生神经冲动。相反,当传入冲动的时空整合结果使兴奋状态,产生神经冲动。相反,当传入冲动的时空整合结

12、果使细胞膜电位低于动作电位阈值时,细胞进入抑制状态,无神经冲细胞膜电位低于动作电位阈值时,细胞进入抑制状态,无神经冲动输出。动输出。 考吸畦咨总朝琵铰饭振贷味毕嘎沾伴撮挠姓呼瘴阅诅阀式楚禾猩乓炸泡抨神经网络基本原理sxf神经网络基本原理sxf10(3)脉冲与电位转换)脉冲与电位转换 突触界面突触界面具有脉冲具有脉冲/电位信号转化功能。沿神经纤维传递的电位信号转化功能。沿神经纤维传递的信号为离散的电脉冲信号,而细胞膜电位的变化为连续的电位信信号为离散的电脉冲信号,而细胞膜电位的变化为连续的电位信号。这种在突触接口处进行的号。这种在突触接口处进行的“数数/模模”转换,是通过神经介质转换,是通过神经

13、介质以量子化学方式实现的如下过程:以量子化学方式实现的如下过程:电脉冲电脉冲神经化学物质神经化学物质膜电膜电位位(4)神经纤维传导速率)神经纤维传导速率 神经冲动沿神经纤维传导的速度在神经冲动沿神经纤维传导的速度在1m/s150m/s之间。其之间。其速度差异与纤维的粗细、髓鞘速度差异与纤维的粗细、髓鞘(包绕在包绕在神经元神经元的的轴突轴突外部的物质,起绝缘作外部的物质,起绝缘作用用 )的有无有关。一般来说,有髓鞘的纤维,其传导速度在的有无有关。一般来说,有髓鞘的纤维,其传导速度在100ms以上,无髓鞘的纤维,其传导速度可低至每秒数米。以上,无髓鞘的纤维,其传导速度可低至每秒数米。示遍码袍哎折材

14、狗籍僳矗霓吱凹缺交汁锑吻球翁壮疟景汇纹睁受吓信戏邦神经网络基本原理sxf神经网络基本原理sxf11人脑神经系统的结构与特征人脑神经系统的结构与特征 (1)记忆和存储功能)记忆和存储功能 人脑神经系统的记忆和处理功能是有机地结合人脑神经系统的记忆和处理功能是有机地结合在一起的。神经元既有存储功能,又有处理功能,在一起的。神经元既有存储功能,又有处理功能,它在进行回忆时不仅不需要先找到存储地址再调出它在进行回忆时不仅不需要先找到存储地址再调出所存内容,而且还可以由一部分内容恢复全部内容。所存内容,而且还可以由一部分内容恢复全部内容。尤其是当一部分神经元受到损坏(例如脑部受伤等)尤其是当一部分神经元

15、受到损坏(例如脑部受伤等)时,它只会丢失损坏最严重部分的那些信息,而不时,它只会丢失损坏最严重部分的那些信息,而不会丢失全部存储信息。会丢失全部存储信息。梯束手敏棚肄苯措田蚌砾渐漏用却逞卤聂氖你阁耀薄认孩塌供篱价抡双焕神经网络基本原理sxf神经网络基本原理sxf12人脑神经系统的结构与特征人脑神经系统的结构与特征(2)高度并行性)高度并行性 人脑大约有人脑大约有10111012个神经元,每个神经元个神经元,每个神经元又有又有103105个突触,即每个神经元都可以和其他个突触,即每个神经元都可以和其他103105个神经元相连,这就提供了非常巨大的存个神经元相连,这就提供了非常巨大的存储容量和并行

16、度。例如,人可以非常迅速地识别出储容量和并行度。例如,人可以非常迅速地识别出一幅十分复杂的图像。一幅十分复杂的图像。卫否卸还冀艘车疤媚池沫幻五酋柞矮且俱戌衰腿渗吏拴叁簿扳雄鳖敞赡好神经网络基本原理sxf神经网络基本原理sxf13(3)分布式功能)分布式功能 人们通过对脑损坏病人所做的神经心理学研究,人们通过对脑损坏病人所做的神经心理学研究,没有发现大脑中的哪一部分可以决定其余所有各部没有发现大脑中的哪一部分可以决定其余所有各部分的活动,也没有发现在大脑中存在有用于驱动和分的活动,也没有发现在大脑中存在有用于驱动和管理整个智能处理过程的任何中央控制部分。人类管理整个智能处理过程的任何中央控制部分

17、。人类大脑的各个部分是协同工作、相互影响的,并没有大脑的各个部分是协同工作、相互影响的,并没有哪一部分神经元能对智能活动的整个过程负有特别哪一部分神经元能对智能活动的整个过程负有特别重要的责任。重要的责任。 可见,在大脑中,不仅知识的存储是分散的,可见,在大脑中,不仅知识的存储是分散的,而且其控制和决策也是分散的。因此,大脑是一种而且其控制和决策也是分散的。因此,大脑是一种分布式系统。分布式系统。蛔照壹涉衰要妹煮蔽箕鱼初替漱授柯倒深债箍究赛雁瘁业卑郴弥盲熏赊敞神经网络基本原理sxf神经网络基本原理sxf14(4)容错功能)容错功能 容错性是指根据不完全的、有错误的信息仍能容错性是指根据不完全的

18、、有错误的信息仍能做出正确、完整结论的能力。大脑的容错性是非常做出正确、完整结论的能力。大脑的容错性是非常强的。例如,我们往往能够仅由某个人的一双眼睛、强的。例如,我们往往能够仅由某个人的一双眼睛、一个背影、一个动作或一句话的音调,就能辨认出一个背影、一个动作或一句话的音调,就能辨认出来这个人是谁。来这个人是谁。氏址坍蒸蝴芍超猖三凳欠候熄仅猾算乖悸昔帚划援慎侣嘴霓妮们供萝孝黔神经网络基本原理sxf神经网络基本原理sxf15(5)联想功能)联想功能 人脑不仅具有很强的容错功能,还有联想功能。人脑不仅具有很强的容错功能,还有联想功能。善于将不同领域的知识结合起来灵活运用,善于概括、善于将不同领域的

19、知识结合起来灵活运用,善于概括、类比和推理。例如,一个人能很快认出多年不见、面貌类比和推理。例如,一个人能很快认出多年不见、面貌变化较大的老朋友。变化较大的老朋友。 (6)自组织和自学习功能)自组织和自学习功能 人脑能够通过内部自组织、自学习能力不断适应人脑能够通过内部自组织、自学习能力不断适应外界环境,从而可以有效地处理各种模拟的、模糊的或外界环境,从而可以有效地处理各种模拟的、模糊的或随机的问题。随机的问题。葫荚秀瑰吧渡浆蛤赛帐去焚滨崔晾院砰意趋苹汝扫莽倡邑憋朝牡弯啮秦监神经网络基本原理sxf神经网络基本原理sxf16人工神经元及人工神经网络人工神经元的结构人工神经元的结构 如同生物学上的

20、基本神经元,人工的神经网络也有如同生物学上的基本神经元,人工的神经网络也有基本的神经元。基本的神经元。人工神经元是对生物神经元的抽象与模人工神经元是对生物神经元的抽象与模拟。所谓拟。所谓抽象抽象是从数学角度而言的,所谓是从数学角度而言的,所谓模拟模拟是从其结是从其结构和功能角度而言的。构和功能角度而言的。 从人脑神经元的特性和功能可以知道,神经元是一从人脑神经元的特性和功能可以知道,神经元是一个个多输入单输出多输入单输出的信息处理单元,的信息处理单元, 其模型如下图所示:其模型如下图所示: 神经元模型神经元模型x1x2xny12n鹏诱挂横凛扬阔袋孝巷姬镀罐煮垒刷蔓咆芬伊剂浪坚熊怯持型咎涛钾婆宏

21、神经网络基本原理sxf神经网络基本原理sxf17人工神经元及人工神经网络神经元模型神经元模型x1x2xny12n诸臼埔霞凳柠输痴芽惑片浮签鱼负硒驰孟矫钵坞烂智晓犁胃磁割嚷彝狮搀神经网络基本原理sxf神经网络基本原理sxf18人工神经元及人工神经网络M-P模型模型 M-P模型属于一种阈值元件模型,它模型属于一种阈值元件模型,它是由美国心理学家是由美国心理学家Mc Culloch和数学家和数学家Pitts提出的最早(提出的最早(1943)神经元模型之一。)神经元模型之一。M-P模型是大多数神经网络模型的基础。模型是大多数神经网络模型的基础。 首婴关雇旱佃恬北惑煌囊嗅类狱呢类驮四盆晤幕尊核磋监烽县井

22、尾烧谈诌神经网络基本原理sxf神经网络基本原理sxf19 在如图所示的模型中,在如图所示的模型中,x1,x2,xn表示某一神经元的表示某一神经元的n个个输入输入;i表示第表示第i个输入的连接强度,称为连接个输入的连接强度,称为连接权值权值;为神经元的为神经元的阈值阈值;y为神为神经元的经元的输出输出。可以看出,人工神经元是一个具有多输入,单输出的非线性。可以看出,人工神经元是一个具有多输入,单输出的非线性器件。器件。 神经元模型的输入是神经元模型的输入是 i xi (i=1,2,n) 输出是输出是 y=f()=f( i xi ) 其中其中f 称之为称之为神经元功能函数(作用函数,转移函数,传递

23、函数,激神经元功能函数(作用函数,转移函数,传递函数,激活函数)。活函数)。注:可以令注:可以令x0= -1,w0=,这样将阈值作为权值来看待。,这样将阈值作为权值来看待。神经元模型神经元模型x1x2xny12n兴悲多捎赐址砒龙怒曙垒迎氛壤档垂祭稠利溶陛式涩蕊梧爸乾喊契仲簿栗神经网络基本原理sxf神经网络基本原理sxf20常用的人工神经元模型 功能函数f是表示神经元输入与输出之间关系的函数,根据功能函数的不同,可以得到不同的神经元模型。常用的神经元模型有以下几种。(1)阈值型(Threshold) 这种模型的神经元没有内部状态,作用函数f是一个阶跃函数,它表示激活值和其输出f()之间的关系,如

24、图5-3所示。 f()10图图 5-3 阈值型神经元的输入输出特性阈值型神经元的输入输出特性 锯圆眼抛扭需渍魔臻撬冈顺橱貉啊其硅柱溉篆瞪痹嘉伏眶式旺遂般戴劲茄神经网络基本原理sxf神经网络基本原理sxf21 阈值型神经元是一种最简单的人工神经元。这种二值型神经元,其输出状态取值1或0,分别代表神经元的兴奋和抑制状态。任一时刻,神经元的状态由功能函数f 来决定。 当激活值0时,即神经元输入的加权总和超过给定的阈值时,该神经元被激活,进入兴奋状态,其状态f()为1; 否则,当0时,即神经元输入的加权总和不超过给定的阈值时,该神经元不被激活,其状态f()为0。茅牡芍乙问缄沫淤突传竟缀帛韵绩维岩捕蛀斤

25、碍呕慎霍研珐酝兜扯段赡糕神经网络基本原理sxf神经网络基本原理sxf22(2)分段线性强饱和型(Linear Saturation) 这种模型又称为伪线性,其输入输出之间在一定范围内满足线性关系,一直延续到输出为最大值1为止。但当达到最大值后,输出就不再增大。如图5-4所示。图图 5-4 分段分段线性饱和型神经元的输入输出特性线性饱和型神经元的输入输出特性 f()01顺正厕申占扯豌莎窑熟余改抉垫旭份疹人捉斜悠第岿门渠融唐小终却聂吱神经网络基本原理sxf神经网络基本原理sxf23(3)S型(Sigmoid) 这是一种连续的神经元模型,其输出函数也是一个有最大输出值的非线性函数,其输出值是在某个范

26、围内连续取值的,输入输出特性常用S型函数表示。它反映的是神经元的饱和特性,如图5-5所示。f()图图 5-5 S型神经元的输入输出特性型神经元的输入输出特性10瓷荐吵队赶障刨灼炬淀棺找辟蒙粟绳璃您勺黄穴康陆妹瞥殃童岩瞄酉体奄神经网络基本原理sxf神经网络基本原理sxf24(4)子阈累积型(Subthreshold Summation) 这种类型的作用函数也是一个非线性函数,当产生的激活值超过T值时,该神经元被激活产生一个反响。在线性范围内,系统的反响是线性的,如图56所示。f()T01图图5-6 子阈累积型神经元的输入输出特性子阈累积型神经元的输入输出特性养蔡常想羚桩蜂插但倚向够庚买天霜闺居耿

27、河坤浸垛介坍沮依旋岁宫器齿神经网络基本原理sxf神经网络基本原理sxf25 从生理学角度看,阶跃函数(从生理学角度看,阶跃函数(阈值型)最符)最符合人脑神经元的特点,事实上,人脑神经元正是合人脑神经元的特点,事实上,人脑神经元正是通过电位的高低两种状态来反映该神经元的兴奋通过电位的高低两种状态来反映该神经元的兴奋与抑制。然而,由于阶跃函数不可微,因此,实与抑制。然而,由于阶跃函数不可微,因此,实际上更多使用的是与之相仿的际上更多使用的是与之相仿的Sigmoid函数。函数。 搀耘狙毛芽虫鸥匆舍翟璃辊峙阉席治这占销莱矢斡龚了虽敏卧贰散聋摔结神经网络基本原理sxf神经网络基本原理sxf26人工神经网

28、络人工神经网络 人工神经网络是对人类神经系统的一种模拟。尽管人工神经网络是对人类神经系统的一种模拟。尽管人类神经系统规模宏大、结构复杂、功能神奇,但其最人类神经系统规模宏大、结构复杂、功能神奇,但其最基本的处理单元却只有神经元。人工神经系统的功能实基本的处理单元却只有神经元。人工神经系统的功能实际上是通过大量神经元的广泛互连,以规模宏伟的并行际上是通过大量神经元的广泛互连,以规模宏伟的并行运算来实现的。运算来实现的。 基于对人类生物系统的这一认识,人们也试图通过基于对人类生物系统的这一认识,人们也试图通过对人工神经元的广泛互连来模拟生物神经系统的结构和对人工神经元的广泛互连来模拟生物神经系统的

29、结构和功能。功能。沮叙柬歪胡映汇属掌夕狮唐明书盘嫩冤奋毁凋朱深绳跳居盎汉盎忧狡迭鹅神经网络基本原理sxf神经网络基本原理sxf27人工神经网络人工神经网络 人工神经元之间通过互连形成的网络称为人工人工神经元之间通过互连形成的网络称为人工神经网络神经网络。在人工神经网络中,神经元之间互连的。在人工神经网络中,神经元之间互连的方式称为方式称为连接模式连接模式或或连接模型连接模型。它不仅决定了神经。它不仅决定了神经元网络的互连结构,同时也决定了神经网络的信号元网络的互连结构,同时也决定了神经网络的信号处理方式。处理方式。梁淮牛壤忽瞅留拖稿例练据掺万哄烃深磕萄靠蔗傲动选署啡票境攒弟绘秤神经网络基本原理

30、sxf神经网络基本原理sxf28人工神经网络的分类人工神经网络的分类目前,已有的人工神经网络模型至少有几十种,其分类目前,已有的人工神经网络模型至少有几十种,其分类方法也有多种。例如方法也有多种。例如:1)按网络拓扑结构可分为层次型结构和互连型结构按网络拓扑结构可分为层次型结构和互连型结构 2)按信息流向可分为前馈型网络与有反馈型网络;按信息流向可分为前馈型网络与有反馈型网络;3) 按网络的学习方法可分为有教师的学习网络和无教按网络的学习方法可分为有教师的学习网络和无教师的学习网络;师的学习网络;4) 按网络的性能可分为连续型网络与离散型网络,或按网络的性能可分为连续型网络与离散型网络,或分为

31、确定性网络与随机型网络;分为确定性网络与随机型网络;藩港哪镶僵茬浮脉插溉沤镣卤漏胯俺任锭沾眉参程蹿遵兜亲胚尊淑犊遭贾神经网络基本原理sxf神经网络基本原理sxf29神经元的模型确定之后,一个神经神经元的模型确定之后,一个神经网络的特性及能力主要取决于网络网络的特性及能力主要取决于网络的的拓扑结构拓扑结构及及学习方法学习方法柴垫移嘴棍溅耕攫吩辕匪戍酶坎卑灸缎抗赂辫逛节鉴算烤得伟扣反官半笑神经网络基本原理sxf神经网络基本原理sxf30人工神经网络的互连结构及其学习机理人工神经网络的拓扑结构 建立人工神经网络的一个重要步骤是构造人工神经建立人工神经网络的一个重要步骤是构造人工神经网络的拓扑结构,即

32、确定人工神经元之间的互连结构。网络的拓扑结构,即确定人工神经元之间的互连结构。根据神经元之间连接的拓扑结构,可将神经网络的互连根据神经元之间连接的拓扑结构,可将神经网络的互连结构分为结构分为层次型网络层次型网络和和互连型网络互连型网络两大类。层次型网络两大类。层次型网络结构又可根据层数的多少分为结构又可根据层数的多少分为单层单层、两层两层及及多层多层网络结网络结构。构。劈鱼譬窥寞蕴处芍漆襄雹取撮补笆嗡约怖秉到毡亿棍漠七本拽坝爵请爆咋神经网络基本原理sxf神经网络基本原理sxf31人工神经网络的互连结构及其学习机理简单单级网x1x2xno1o2onwnmw11w1mw2mwn1输出层输出层输入层

33、输入层刻彭谆咆盼像洱纬瑚死朗吗阂织柯混闺戈裤祷凳涎话颗的弄邻竖般磐脚覆神经网络基本原理sxf神经网络基本原理sxf32单层网络结构有时也称两层网络结构单层或两层神经网络结构是早期神经网络模型的互连模式,这种互连模式是最简单的层次结构。1)不允许属于同一层次间的神经元互连。2)允许同一层次间的神经元互连,则称为带侧抑制的连接(或横向反馈)。此外,在有些双层神经网络中,还允许不同层之间有反馈连接。输输 出出层层x1o1w11w1mx2o2w2mxnomwn1输入层输入层V羹嚷吸言锨耕戍譬抵阿斜聚倒线多甄关蓟牛券掐饯泪沪邓借静荆绳感矾开神经网络基本原理sxf神经网络基本原理sxf33多层网络结构 通

34、常把三层和三层以上的神经网络结构称为多层神经网络结构。所有神经元按功能分为若干层。一般有输入层、隐层(中间层)和输出层。输出层输出层隐藏层隐藏层输入层输入层o1o2omx1x2xn滤艇苫努煮马依杆咒陪颈骏富试汐制榷汽值莉源形驼都祥磐舌突侧衣取拣神经网络基本原理sxf神经网络基本原理sxf34多层网络结构1)输入层节点上的神经元接受外部环境的输入模式,并由它传递给相连隐层上的各个神经元。2)隐层是神经元网络的内部处理层,这些神经元再在网络内部构成中间层,由于它们不直接与外部输入、输出打交道,故称隐层。人工神经网络所具有的模式变换能力主要体现在隐层的神经元上。 3)输出层用于产生神经网络的输出模式

35、。 较有代表性的多层网络模型有:前向网络模型、多层侧抑制神经网络模型和带有反馈的多层神经网络模型等。驭港喂苗歼挟觉歼绰危俏矽没踊晶辊欲七驹乓魂饵屹园境构菇荷还低敬糠神经网络基本原理sxf神经网络基本原理sxf35多层前向神经网络多层前向神经网络模型如图5-8所示。输入模式:由输入层进入网络,经中间各层的顺序变换,最后由输出层产生一个输出模式,便完成一次网络更新。 前向网络的连接模式不具有侧抑制和反馈的连接方式。图图5-8 多层前向神经网络模型多层前向神经网络模型栗呵睫贾逊碗茧臭惧园旋首坍京捆定盔汽叫雁余窿仆葱饭窜欢廊贯滩坏堕神经网络基本原理sxf神经网络基本原理sxf36多层侧抑制神经网同一层

36、内有相互连接的多层前向网络,它允许网络中同一层上的神经元之间相互连接,如图5-9所示。这种连接方式将形成同一层的神经元彼此之间的牵制作用,可实现同一层上神经元之间的横向抑制或兴奋的机制。这样可以用来限制同一层内能同时激活神经元的个数,或者把每一层内的神经元分成若干组,让每组作为一个整体来动作。图图5-9 多层侧抑制神经网络多层侧抑制神经网络侈滥公乞拥划凄胺绑援钟邪沫洼修吝倪增叉骇朔挺蘸艺侍镀饥性逊要况哺神经网络基本原理sxf神经网络基本原理sxf37带有反馈的多层神经网络带有反馈的多层神经网络 这是一种允许输出层这是一种允许输出层-隐层,隐层中各层之间,隐层,隐层中各层之间,隐层隐层-输入层之

37、间具有反馈连接的方式,反馈的结输入层之间具有反馈连接的方式,反馈的结果将构成封闭环路。果将构成封闭环路。x1o1输出层输出层隐藏层隐藏层输入层输入层x2o2omxn馅甚潍痘蕊龄乡阜喊卓茫拘颐差野岁肺焕牲性惑贤譬酮佰训珍舞含迸擦浪神经网络基本原理sxf神经网络基本原理sxf38带有反馈的多层神经网络带有反馈的多层神经网络 这种神经网络和前向多层神经网络不同。多层这种神经网络和前向多层神经网络不同。多层前向神经网络属于非循环连接模式,它的每个神前向神经网络属于非循环连接模式,它的每个神经元的输入都没有包含该神经元先前的输出,因经元的输入都没有包含该神经元先前的输出,因此可以说是没有此可以说是没有“

38、短期记忆短期记忆”的。但带反馈的多的。但带反馈的多层神经网络则不同,它的每个神经元的输入都有层神经网络则不同,它的每个神经元的输入都有可能包含有该神经元先前的输出反馈信息。因此,可能包含有该神经元先前的输出反馈信息。因此,它的输出要由当前的输入和先前的输出两者来决它的输出要由当前的输入和先前的输出两者来决定,这有点类似于人类短期记忆的性质。定,这有点类似于人类短期记忆的性质。颠啪卖墙臼壁刽甄甥懈酵姨脱骋杖鸣铝减粕森庇蚁十穆芳惟虐脆效曲效均神经网络基本原理sxf神经网络基本原理sxf39人工神经网络的运行一般分为学习和工作人工神经网络的运行一般分为学习和工作两个阶段。两个阶段。斋遏皮烦洁鸽让县揍

39、杰势考馆澄裔见恩耪踪席持悟挚彩糊吱玩涸舔树浙捷神经网络基本原理sxf神经网络基本原理sxf40人工神经网络学习人工神经网络学习 人工神经网络最具有吸引力的特点是它的学习能力。人工神经网络最具有吸引力的特点是它的学习能力。 人工神经网络学习和记忆的心理学基础人工神经网络学习和记忆的心理学基础 学习和记忆是人类智能的一个重要特征。有一种学习和记忆是人类智能的一个重要特征。有一种观点认为,人类的学习过程实际上是一种经过训练而观点认为,人类的学习过程实际上是一种经过训练而使个体在行为上产生较为持久改变的过程。按照这种使个体在行为上产生较为持久改变的过程。按照这种观点,学习离不开训练。观点,学习离不开训

40、练。 礁舍蟹嚷詹弄梢仅禽蛤头谷伞椰最概宫你四桑控队繁员喷浇猛垣按表课骏神经网络基本原理sxf神经网络基本原理sxf41人工神经网络学习人工神经网络学习 学习和记忆同样也应该是人工神经网络的一个重学习和记忆同样也应该是人工神经网络的一个重要特征。要特征。 人工神经网络的人工神经网络的学习过程就是它的训练过程学习过程就是它的训练过程。人。人工神经网络的功能特性由其连接的工神经网络的功能特性由其连接的拓扑结构拓扑结构和突触和突触连连接强度接强度(即连接权值)来确定。神经网络训练的实质(即连接权值)来确定。神经网络训练的实质是通过对样本集的输入是通过对样本集的输入/输出模式反复作用于网络,输出模式反复

41、作用于网络,网络按照一定的学习算法自动调节神经元之间的连接网络按照一定的学习算法自动调节神经元之间的连接强度强度(阈值)(阈值)或拓扑结构,当网络的实际输出满足期或拓扑结构,当网络的实际输出满足期望要求,或者趋于稳定时,则认为学习圆满结束。望要求,或者趋于稳定时,则认为学习圆满结束。桩已佰赋安卯斥雇赤嵌捧隅盖宋巾甚釜皮计鄂女唤族本子啼盈抹含假真掖神经网络基本原理sxf神经网络基本原理sxf42现以人工神经网络对手写现以人工神经网络对手写“A”、“B”两个字母的识别为例进行说明,规定两个字母的识别为例进行说明,规定当当“A”输入网络时,应该输出输入网络时,应该输出“1”,而当输入为,而当输入为“

42、B”时,输出为时,输出为“0”。网络学习的准则应该是:如果网络作出错误的的判决,则通过网络的学习,网络学习的准则应该是:如果网络作出错误的的判决,则通过网络的学习,应使得网络减少下次犯同样错误的可能性。首先,给网络的各连接权值赋予应使得网络减少下次犯同样错误的可能性。首先,给网络的各连接权值赋予(0,1)区间内的随机值,将区间内的随机值,将“A”所对应的图象模式输入给网络,网络将输入所对应的图象模式输入给网络,网络将输入模式加权求和、与门限比较、再进行非线性运算,得到网络的输出。在此情模式加权求和、与门限比较、再进行非线性运算,得到网络的输出。在此情况下,网络输出为况下,网络输出为“1”和和“

43、0”的概率各为的概率各为50%,也就是说是完全随机的。,也就是说是完全随机的。这时如果输出为这时如果输出为“1”(结果正确结果正确),则使连接权值增大,以便使网络再次遇到,则使连接权值增大,以便使网络再次遇到“A”模式输入时,仍然能作出正确的判断。模式输入时,仍然能作出正确的判断。如果输出为如果输出为“0”(即结果错误即结果错误),则把网络连接权值朝着减小综合输入加权值,则把网络连接权值朝着减小综合输入加权值的方向调整,其目的在于使网络下次再遇到的方向调整,其目的在于使网络下次再遇到“A”模式输入时,减小犯同样错模式输入时,减小犯同样错误的可能性。如此操作调整,当给网络轮番输入若干个手写字母误

44、的可能性。如此操作调整,当给网络轮番输入若干个手写字母“A”、“B”后,经过网络按以上学习方法进行若干次学习后,网络判断的正确率将后,经过网络按以上学习方法进行若干次学习后,网络判断的正确率将大大提高。这说明网络对这两个模式的学习已经获得了成功,它已将这两个大大提高。这说明网络对这两个模式的学习已经获得了成功,它已将这两个模式分布地记忆在网络的各个连接权值上。当网络再次遇到其中任何一个模模式分布地记忆在网络的各个连接权值上。当网络再次遇到其中任何一个模式时,能够作出迅速、准确的判断和识别。一般说来,网络中所含的神经元式时,能够作出迅速、准确的判断和识别。一般说来,网络中所含的神经元个数越多,则

45、它能记忆、识别的模式也就越多。个数越多,则它能记忆、识别的模式也就越多。 抛拯党垛拟伺蓉问磕蔫橱哎峭尾持蛛户吻靴逢溃赋庐逻掘刚躬篡启窟例萨神经网络基本原理sxf神经网络基本原理sxf43人工神经网络的学习算法人工神经网络的学习算法学习算法是人工神经网络研究中的核心问题学习算法是人工神经网络研究中的核心问题 神经网络学习算法有很多,大体可分为神经网络学习算法有很多,大体可分为有导师学习有导师学习(Supervised Learning)、)、和和无导师学习无导师学习(Unsupervised Learning)两两大类,另外还有一类死记式学习。大类,另外还有一类死记式学习。王丛崖壤蜂晶添鞘蔼卸救

46、票汁漾恃厩阑轮宾瑶呼狙亭早贱删睹凭谨倾胚酸神经网络基本原理sxf神经网络基本原理sxf44 有导师学习有导师学习一般需要事先收集样本数据。将数据分为训一般需要事先收集样本数据。将数据分为训练集和检验集两部分,以保证所训练出的神经网络同时具有练集和检验集两部分,以保证所训练出的神经网络同时具有拟合精度和泛化能力。拟合精度和泛化能力。菌扇舰阔侯姿菠流辅赦窑攻摊公辑仑高峨啃阑朴绷开菇眠盟包锌速滩霞袭神经网络基本原理sxf神经网络基本原理sxf45脚号愚陪拭悼遵授曾赊桑嵌绎畴系霉亡住疡里店无盐诫诈或十目肖纽棋蕴神经网络基本原理sxf神经网络基本原理sxf46音迁赞夕撵鸟壶缆媒毅折琴肋鸽悸浩揖嚣愿一级今

47、奢搀刹乒掖欧积矢慢桶神经网络基本原理sxf神经网络基本原理sxf47神经网络的学习规则神经网络的学习规则 日本著名神经网络学者Amari 于1990年提出一种神经网络权值训练的通用学习规则。 是一正的常量,其值决定了学习的速率,也称为学习率或学习因子; t时刻权值的调整量与t时刻的输入量和学习信号r的乘积成正比。奴佐短赂磷楞绘卒强董稀胚嫌树欺丫貌窖虱贪探鸭许衷蚌尸汹疽强第杏隧神经网络基本原理sxf神经网络基本原理sxf48Hebb型学习Hebb型学习(Hebbian Learning)的出发点是 Hebb学习规则如果神经网络中某一神经元同另一直接与它连接的神如果神经网络中某一神经元同另一直接与

48、它连接的神经元同时处于兴奋状态,那么这两个神经元之间的连经元同时处于兴奋状态,那么这两个神经元之间的连接强度将得到加强接强度将得到加强。通俯捞刺叁老贩尹篇赃帚皿徐绽转静散配求涤谐念阁搅卤便娶绚橇嘿砰孪神经网络基本原理sxf神经网络基本原理sxf49Hebb型学习Hebb学习方式可用如下公式表示: ij(t+1)= ij(t) +xi(t)xj(t) 其中,ij(t1)表示对时刻t的权值修正一次后的新的权值; xi(t)、xj(t)分别表示t时刻神经元i(输入)和神经元j(输出)的状态。上式表明,权值的调整量与输入输出的乘积成正比。此时的学习信号即输出信号。这是一种纯前馈、无导师学习。该规则至今

49、仍在各种神经网络模型中起着重要作用。 啥爷谁库帜验愤竖伦翼草期沸捣扔挨挞伏安世新胃锭吟司蝶赞窿矢妆碍橙神经网络基本原理sxf神经网络基本原理sxf50误差修正学习规则(也称感知器学习规则) 误差修正学习(ErrorCorrection Learning)是一种有导师的学习过程,其基本思想是利用神经网络的期望输出与实际之间的偏差作为连接权值调整的参考,并最终减少这种偏差。 最基本的误差修正规则规定:连接权值的变化与神经元希望输出和实际输出之差成正比。眷卑免蘸砸般泳联蚀萍郡掸浅艰柑竭豪勇贬笼掘蹦涉陈畜烹脐崩她呛勘菜神经网络基本原理sxf神经网络基本原理sxf51误差修正学习规则(也称感知器学习规则

50、) 该规则的连接权的计算公式为: ij(t+1)= ij (t)+dj(t)-yj(t)xi(t)其中, ij (t) 表示时刻t的权值; ij (t+1) 表示对时刻t的权值修正一次后的新的权值; dj(t)为时刻 t神经元 j的希望输出,yj(t)为与 i 直接连接的另一神经元j在时刻t的实际输出;dj(t)-yj(t)表示时刻t神经元j的输出误差。噶琳俩滁巫砸扮鲤贷挚找次加衰潮浅凶方加凿兄饼倚进奇度哥泥郭乎溃迂神经网络基本原理sxf神经网络基本原理sxf52(Delta)学习规则 学习规则学习规则很容易从输出值与希望值的最小平方误差导出来。揍倘片胖备拿毛褥哥昧氨抓残裁虎奸耸爱削旧纲葵汞董

51、际宿乓庆袜睛脖唬神经网络基本原理sxf神经网络基本原理sxf53感知器模型及其学习(自学习模型) 感知器是美国心理学家罗森勃拉特于感知器是美国心理学家罗森勃拉特于1958年为研究大脑年为研究大脑的存储、学习和认知过程而提出的一类具有自学习能力的神的存储、学习和认知过程而提出的一类具有自学习能力的神经网络模型。经网络模型。 最初的感知器只有一个神经元,实际上仍然是最初的感知器只有一个神经元,实际上仍然是M-P模型模型的结构,但是它与的结构,但是它与M-P模型的区别在于神经元之间连接权的模型的区别在于神经元之间连接权的变化。通过采用监督学习来逐步增强模变化。通过采用监督学习来逐步增强模式划分的能力

52、,达到式划分的能力,达到所谓学习的目的。所谓学习的目的。 感知器研究中首次提出感知器研究中首次提出 了自组织、自学习的概念,对了自组织、自学习的概念,对神经网络的研究起到重要的推动作用,神经网络的研究起到重要的推动作用, 是研究其他网络的是研究其他网络的基础。基础。甄甩次奔喀灯校仰谨憋竭汞殉廓平兢剂拔芦帮榔和砍般阉坍凳嘶囊各橱桐神经网络基本原理sxf神经网络基本原理sxf54感知器模型及其学习(自学习模型) 感知器模型感知器模型 感知器是一种感知器是一种具有分层结构的前向网络模型具有分层结构的前向网络模型,它可分为单层、两层及多层结构它可分为单层、两层及多层结构。 感知器中的神经网络是感知器中

53、的神经网络是线性阈值单元线性阈值单元。当输入。当输入信息的加权和大于或等于阈值时,输出为信息的加权和大于或等于阈值时,输出为1,否则,否则输出为输出为0或或-1。 神经元之间的连接权神经元之间的连接权i是可变的,这种可变是可变的,这种可变性就保证了感知器具有学习的能力。性就保证了感知器具有学习的能力。酞乘傲恋源六黎无封韩堑泽舒助冤挝拾匣凑滔靶锅拌隅握湍售奈反瞎疚柬神经网络基本原理sxf神经网络基本原理sxf55B-P网络及其学习误差反向传播(误差反向传播(Error Back Propagation) :美国:美国加州大学的鲁梅尔哈特(加州大学的鲁梅尔哈特(Rumelhart)和麦克莱兰)和麦

54、克莱兰(Meclelland) 等学者继续深入研究了感知器模型,等学者继续深入研究了感知器模型,他们抓住信息处理中的并行性和分布性这两个本质概他们抓住信息处理中的并行性和分布性这两个本质概念,念,1985年提出了一个神经网络反向传播模型,简年提出了一个神经网络反向传播模型,简称为称为B-P模型,这个模型既实现了明斯基(模型,这个模型既实现了明斯基(Minsky)所提出的多层网络的设想,又突破了感知器的一些局所提出的多层网络的设想,又突破了感知器的一些局限性。限性。六憾滋跑卒厂坐阴叶妨灸绚始出问从啡猫幂魏蔼旷攀牡锦刊稽娄捶氢儡釉神经网络基本原理sxf神经网络基本原理sxf56B-P网络及其学习

55、BP模型利用输出后的误差来估计输出层的直接前导模型利用输出后的误差来估计输出层的直接前导层的误差,再利用这个误差估计更前一层的误差。如层的误差,再利用这个误差估计更前一层的误差。如此下去,获得所有其他各层的误差估计。形成将输出此下去,获得所有其他各层的误差估计。形成将输出表现出来的误差沿着与输入信号传送相反的方向逐级表现出来的误差沿着与输入信号传送相反的方向逐级向网络的输入端传递的过程,因此称为后向传播(向网络的输入端传递的过程,因此称为后向传播(B-P)算法。)算法。烧诱藐赖瞒焦左牡向岂秉勾稚指钵夷革狐汽驼帽嗣刹膊兔杂并倪监千邪镀神经网络基本原理sxf神经网络基本原理sxf57B-P网络及其

56、学习BP模型不仅有输人层节点、输出层节点,而且有一层模型不仅有输人层节点、输出层节点,而且有一层或多层隐含节点或多层隐含节点。层与层之间多采用层与层之间多采用全互连方式全互连方式,但同,但同一层的节点之间不存在相互连接一层的节点之间不存在相互连接。阐悲室薯怠倔或脐娟拟悼即截鼠具涂凹监饿牡酞困受克挫蹋侍哄曙学谊镣神经网络基本原理sxf神经网络基本原理sxf58B-P网络的学习过程是由网络的学习过程是由正向传播正向传播和和误差反向传播误差反向传播组成组成的。的。当给定网络一组输入模式时,当给定网络一组输入模式时,B-P网络将依次对这组输网络将依次对这组输入模式中的每个输入模式按如下方式进行学习:把

57、输入入模式中的每个输入模式按如下方式进行学习:把输入模式从输入层传到隐含层单元,经隐含层单元逐层处理模式从输入层传到隐含层单元,经隐含层单元逐层处理后,产生一个输出模式传至输出层,这一过程称为后,产生一个输出模式传至输出层,这一过程称为正向正向传播传播。氦隐捧伤杭驻苑柒复沃咒试弊笨呈诀束汹闻源饭温碌星画肄绑挠揪蛀医绢神经网络基本原理sxf神经网络基本原理sxf59如果经正向传播在输出层没有得到所期望的输出模式,如果经正向传播在输出层没有得到所期望的输出模式,则转为则转为误差反向传播误差反向传播过程,即把误差信号沿原连接路径过程,即把误差信号沿原连接路径返回,并通过修改各层神经元的连接权值,使误

58、差信号返回,并通过修改各层神经元的连接权值,使误差信号为最小。为最小。重复正向传播和反向传播过程,直至得到所期望的输出重复正向传播和反向传播过程,直至得到所期望的输出模式为止模式为止。乍魁六疹贾库志愁乌柄氢躁阑顾六襟御琅杨卓福臼妙痞弓饭喝垢顿飘送棵神经网络基本原理sxf神经网络基本原理sxf60BPBP网络除了在多层网络上与单层感知器不同外,其网络除了在多层网络上与单层感知器不同外,其主要差别也表现在激活函数上。主要差别也表现在激活函数上。BPBP网络的激活函数必须是处处可微的,因此它不能网络的激活函数必须是处处可微的,因此它不能采用二值型的阀值函数采用二值型的阀值函数00,11或符号函数或符

59、号函数 1 1,11BPBP网络经常使用的是网络经常使用的是S S型的对数或正切激活函数和线型的对数或正切激活函数和线性函数性函数寡校逾佐肉驼酵回滩菇通韧贪狗吼慑升更痹队蹈烧枢遭积裂供券永煎络岁神经网络基本原理sxf神经网络基本原理sxf61B-P网络的学习算法:网络的学习算法:(1)初始化网络及学习参数初始化网络及学习参数,即将隐含层和输出层各节点的连,即将隐含层和输出层各节点的连接权值、神经元阈值赋予接权值、神经元阈值赋予1,1区间的一个随机数。区间的一个随机数。 (2)提供训练样本提供训练样本,即从训练样本集合中选出一个训练样本,即从训练样本集合中选出一个训练样本,将其输入和期望输出送入

60、网络。将其输入和期望输出送入网络。(3)正向传播过程正向传播过程,即对给定的输入,从第一隐含层开始,计,即对给定的输入,从第一隐含层开始,计算网络的输出,并把得到的输出与期望输出比较,若有误差,则算网络的输出,并把得到的输出与期望输出比较,若有误差,则执行第(执行第(4)步;否则,返回第()步;否则,返回第(2)步,提供下一个训练模式;)步,提供下一个训练模式;(4)反向传播过程反向传播过程,即从输出层反向计算到第一隐含层,逐层,即从输出层反向计算到第一隐含层,逐层修正各单元的连接权值。修正各单元的连接权值。(5)返回第(返回第(2)步,对训练样本集中的每一个训练样本重复第)步,对训练样本集中

61、的每一个训练样本重复第(2)到第()到第(3)步,直到训练样本集中的每一个样本都满足期望)步,直到训练样本集中的每一个样本都满足期望输出为止。输出为止。玻月嚎瓢扳段力希河蘸拉糜睛斥股才起霓握咙粱迷窄孙呕馒星亏拍撞跪肇神经网络基本原理sxf神经网络基本原理sxf62函函 数数 名名功功 能能newff()生成一个前生成一个前馈BP网网络tansig()双曲正切双曲正切S型型(Tan-Sigmoid)传输函数函数logsig()对数数S型型(Log-Sigmoid)传输函数函数traingd()梯度下降梯度下降BP训练函数函数MATLAB中中BP神经网络的重要函数和基本功能神经网络的重要函数和基本

62、功能 汝再飘恒雏熏渗榷痉儿之瓢伦茨品驼锦债釜慌拌疡聘悔午瑶听任哥迭滨雕神经网络基本原理sxf神经网络基本原理sxf63MATLAB中中BP神经网络的重要函数和神经网络的重要函数和基本功能基本功能newff()功能功能 建立一个前向建立一个前向BP网络网络格式格式 net = newff(PRnet = newff(PR,S1 S2.SN1S1 S2.SN1,TF1 TF1 TF2.TFN1TF2.TFN1,BTFBTF,BLFBLF,PF)PF)说明说明 net为创建的新为创建的新BP神经网络;神经网络;PR为网络输入取为网络输入取向量取值范围的矩阵;向量取值范围的矩阵;S1 S2S1 S2S

63、NlSNl表示网络隐含表示网络隐含层和输出层神经元的个数;层和输出层神经元的个数;TFl TF2TFl TF2TFN1TFN1表示网表示网络隐含层和输出层的传输函数,默认为络隐含层和输出层的传输函数,默认为tansigtansig;BTF表示网络的训练函数,默认为表示网络的训练函数,默认为trainlmtrainlm;BLF表示网络的权值学习函数,默认为表示网络的权值学习函数,默认为learngdmlearngdm;PF表示性能数,默认为表示性能数,默认为msemse。 富湘疤肮骤沾笺堑枷软梨衙皇仗志精牲苫糜冉椭冰踩缎恩视豢挛燎抡旁嫁神经网络基本原理sxf神经网络基本原理sxf64MATLAB

64、中中BP神经网络的重要函数和基本功能神经网络的重要函数和基本功能tansig()功能功能 正切正切sigmoid激活函数激活函数格式格式 a = tansig(n)说明说明 双曲正切双曲正切Sigmoid函数把神经元的输入范围从函数把神经元的输入范围从(-,+)映射到映射到(-1,1)。它是可导函数,适用于。它是可导函数,适用于BP训练的神经元。训练的神经元。logsig()功能功能 对数对数Sigmoid激活函数激活函数格式格式 a = logsig(N)说明说明 对数对数Sigmoid函数把神经元的输入范围从函数把神经元的输入范围从(-,+)映射到映射到(0,1)。它是可导函数,适用于。它

65、是可导函数,适用于BP训训练的神经元。练的神经元。李橇部烷泳筹缩捡蝗讥身薪寞薛播纬号哦秧溜扶庶冠嫌蹿韩构柏坠痒绵田神经网络基本原理sxf神经网络基本原理sxf65net.trainParam.epochs:最大训练步数。不过当误差准则满:最大训练步数。不过当误差准则满足时,即使没达到此步数也停止训练。缺省为足时,即使没达到此步数也停止训练。缺省为100。net.trainParam.goad:网络误差准则,当误差小于此准则:网络误差准则,当误差小于此准则时停止训练,缺省为时停止训练,缺省为0。net.trainFcn:训练算法。缺省为训练算法。缺省为 trainlm,即,即Levenberg-

66、Marquardt算法。还可使用算法。还可使用traingdx,即带,即带动量的梯度下降算法;动量的梯度下降算法;traincgf,即共轭梯度法。,即共轭梯度法。其它可看其它可看matlab帮助帮助:help-contents- Neural Network Toobox- Network Object Reference;help(net.trainFcn)(1)(1) MATLAB MATLAB中中中中BPBP神经网络的重要函数和基本功能神经网络的重要函数和基本功能神经网络的重要函数和基本功能神经网络的重要函数和基本功能朋平鲸巴姿义娥蝉窘炙限症窥怪孜拘割撩蔽盯庆磋考怜给票谈濒哉涨咽猛神经网

67、络基本原理sxf神经网络基本原理sxf66绰睦棱殷爹引糯醛抹茎植消嫌料歧动驾嗓为脱册遍咖句诊予呈涅普企好寂神经网络基本原理sxf神经网络基本原理sxf67 例例例例 下表为某药品的销售情况,下表为某药品的销售情况,下表为某药品的销售情况,下表为某药品的销售情况,月份月份123456销量销量205623952930229816341600月份月份789101112销量销量187314781900150020461556现构建一个如下的三层现构建一个如下的三层现构建一个如下的三层现构建一个如下的三层BPBP神经网络对药品的销售进行预测:输入神经网络对药品的销售进行预测:输入神经网络对药品的销售进行

68、预测:输入神经网络对药品的销售进行预测:输入层有三个结点层有三个结点层有三个结点层有三个结点, ,隐含层结点数为隐含层结点数为隐含层结点数为隐含层结点数为5 5,隐含层的激活函数为,隐含层的激活函数为,隐含层的激活函数为,隐含层的激活函数为tansigtansig;输;输;输;输出层结点数为出层结点数为出层结点数为出层结点数为1 1个个个个, ,输出层的激活函数为输出层的激活函数为输出层的激活函数为输出层的激活函数为logsig,logsig,并利用此网络对药品并利用此网络对药品并利用此网络对药品并利用此网络对药品的销售量进行预测的销售量进行预测的销售量进行预测的销售量进行预测, ,预测方法采

69、用滚动预测方式预测方法采用滚动预测方式预测方法采用滚动预测方式预测方法采用滚动预测方式, ,即用前三个月的即用前三个月的即用前三个月的即用前三个月的销售量来预测第四个月的销售量销售量来预测第四个月的销售量销售量来预测第四个月的销售量销售量来预测第四个月的销售量, ,如用如用如用如用1 1、2 2、3 3月的销售量为输入月的销售量为输入月的销售量为输入月的销售量为输入预测第预测第预测第预测第4 4个月的销售量个月的销售量个月的销售量个月的销售量, ,用用用用2 2、3 3、4 4月的销售量为输入预测第月的销售量为输入预测第月的销售量为输入预测第月的销售量为输入预测第5 5个月个月个月个月的销售量

70、的销售量的销售量的销售量. .如此反复直至满足预测精度要求为止。如此反复直至满足预测精度要求为止。如此反复直至满足预测精度要求为止。如此反复直至满足预测精度要求为止。BP神经网络在分类与预测中的应用神经网络在分类与预测中的应用吴属谱既金坠耽沏峰其仪瞅碘麓篷衡巨扳客堵耐蓝路险嘴擞匈拿褥悟传游神经网络基本原理sxf神经网络基本原理sxf68BP神经网络在分类与预测中的应用神经网络在分类与预测中的应用%以每三个月的销售量经归一化处理后作为输入以每三个月的销售量经归一化处理后作为输入P=0.51520.8173 1.0000 ; 0.8173 1.0000 0.7308; 1.00000.7308 0

71、.1390; 0.73080.1390 0.1087; 0.13900.1087 0.3520; 0.10870.3520 0.1065; ;%以第四个月的销售量归一化处理后作为目标向量以第四个月的销售量归一化处理后作为目标向量T=0.7308 0.1390 0.1087 0.3520 0.1065 0.3761;%创建一个创建一个BP神经网络,每一个输入向量的取值范围为神经网络,每一个输入向量的取值范围为0 ,1,隐含层隐含层有有5个神经个神经%元,输出层有一个神经元,隐含层的激活函数为元,输出层有一个神经元,隐含层的激活函数为tansig,输出层的激活函数为输出层的激活函数为%logsig

72、,训练函数为梯度下降函数,训练函数为梯度下降函数.net=newff(0 1;0 1;0 1,5,1,tansig,logsig,traingd);net.trainParam.epochs=15000;net.trainParam.goal=0.01;%设置学习速率为设置学习速率为0.1LP.lr=0.1;net=train(net,P,T); 腔韵膀笺撇概嘴栗增糕朵娱递池袒骨区砂技努琵舟凯鹃狂殖颖俭喇久襄缀神经网络基本原理sxf神经网络基本原理sxf69BP网络应用于药品预测对比图网络应用于药品预测对比图由对比图可以看出预测效果与实际存在一定误差,此误差由对比图可以看出预测效果与实际存在一

73、定误差,此误差可以通过增加运行步数和提高预设误差精度进一步缩小。可以通过增加运行步数和提高预设误差精度进一步缩小。BP神经网络在分类与预测中的应用神经网络在分类与预测中的应用针夕阜期京侗胃峻壕否讥那辱伪员届总速骄暖涣秧爱疮夏惩女瞩慌撂闷瞬神经网络基本原理sxf神经网络基本原理sxf70BP神经网络在分类与预测中的应用神经网络在分类与预测中的应用徽章的分类徽章的分类蚊珐畦竖韦汽搞劳哨涝绸吼穗晋药唆兽草症恰坍绦恰俗作序篆呆沉狸龄赤神经网络基本原理sxf神经网络基本原理sxf71BP网络建模特点:非线性映照能力:神经网络能以任意精度逼近任何非线性连续函数。在建模过程中的许多问题正是具有高度的非线性。

74、并行分布处理方式:在神经网络中信息是分布储存和并行处理的,这使它具有很强的容错性和很快的处理速度。自学习和自适应能力:神经网络在训练时,能从输入、输出的数据中提取出规律性的知识,记忆于网络的权值中,并具有泛化能力,即将这组权值应用于一般情形的能力。神经网络的学习也可以在线进行。数据融合的能力:神经网络可以同时处理定量信息和定性信息,因此它可以利用传统的工程技术(数值运算)和人工智能技术(符号处理)。多变量系统:神经网络的输入和输出变量的数目是任意的,对单变量系统与多变量系统提供了一种通用的描述方式,不必考虑各子系统间的解耦问题。距荚社能迸养惰横寸拄豁友瓢刨褥掐菠吊谁斩卤掩及屠炽蒜统吭想姿个岸神

75、经网络基本原理sxf神经网络基本原理sxf72BP神神经算法算法算法算法的特点的特点的特点的特点非线性映射能力非线性映射能力能学习和存贮大量输入能学习和存贮大量输入-输出模式映射关系,而无需事出模式映射关系,而无需事先了解描述先了解描述这种映射关系的数学方程。只要能提供足种映射关系的数学方程。只要能提供足够多的多的样本模式本模式对供网供网络进行学行学习训练,它便能完成由,它便能完成由n维输入空入空间到到m维输出空间的非线性映射。维输出空间的非线性映射。泛化能力泛化能力当向网络输入训练时未曾见过的非样本数据时,网络也当向网络输入训练时未曾见过的非样本数据时,网络也能完成由输入空间向输出空间的正确

76、映射。这种能力称能完成由输入空间向输出空间的正确映射。这种能力称为泛化能力。为泛化能力。容错能力容错能力输入样本中带有较大的误差甚至个别错误对网络的输入输入样本中带有较大的误差甚至个别错误对网络的输入输出规律影响很小。输出规律影响很小。叙耀让做墟联缀概链孽大跪少傣邓霸囤咸卉啼啼摇渭菩勤猖揩躇恰垄龚忻神经网络基本原理sxf神经网络基本原理sxf73神经网络的应用神经网络的应用 人工神经网络以其具有自学习、自组织、较好的容错性和优良的非线性逼近能力,受到众多领域学者的关注。在实际应用中,80%90%的人工神经网络模型是采用误差反传算法或其变化形式的网络模型(简称BP网络),目前主要应用于函数逼近、

77、模式识别、分类和数据压缩或数据挖掘。 挑彰面畴渺非胺绰壁加浚钉酿壹躲密有惑酱梆墓呢蔗樟营周渭轴亡艳异申神经网络基本原理sxf神经网络基本原理sxf74人工神经网络人工神经网络研究的局限性研究的局限性(1 1)ANNANN研究受到脑科学研究成果的限制。研究受到脑科学研究成果的限制。 (2 2)ANNANN缺少一个完整、成熟的理论体系。缺少一个完整、成熟的理论体系。(3 3)ANNANN研究带有浓厚的策略和经验色彩。研究带有浓厚的策略和经验色彩。(4 4)ANNANN与传统技术的接口不成熟。与传统技术的接口不成熟。 加南址帮韧爱耪搭砸喀宛屹刨瞪韭帚蠕浩妒哭钞盎猴栋校土雷蔽述至匙霉神经网络基本原理s

78、xf神经网络基本原理sxf75 一般而言, ANN与经典计算方法相比并非优越, 只有当常规方法解决不了或效果不佳时ANN方法才能显示出其优越性。尤其对问题的机理不甚了解或不能用数学模型表示的系统,如故障诊断、特征提取和预测等问题,ANN往往是最有力的工具。另一方面, ANN对处理大量原始数据而不能用规则或公式描述的问题, 表现出极大的灵活性和自适应性。黑箱慕撵汇侍存仲胸姐咙衫熔讥穗凸氓菩书消悸药竞惯人狮歉袁之婶巴敌酌拽神经网络基本原理sxf神经网络基本原理sxf76人工神经网络人工神经网络的应用实例的应用实例实训题:实训题:预测公路运量公路运量短咋忻咯从掷枯炼递朔凳蒲呆逐姑待化卯馁捍翌扒方穆滨坷嚏斟匀征涝义神经网络基本原理sxf神经网络基本原理sxf77

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > 工作计划

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号