基础知识+续人工神经网络常用学习规则

上传人:san****019 文档编号:83788485 上传时间:2019-03-01 格式:PPT 页数:44 大小:1.84MB
返回 下载 相关 举报
基础知识+续人工神经网络常用学习规则_第1页
第1页 / 共44页
基础知识+续人工神经网络常用学习规则_第2页
第2页 / 共44页
基础知识+续人工神经网络常用学习规则_第3页
第3页 / 共44页
基础知识+续人工神经网络常用学习规则_第4页
第4页 / 共44页
基础知识+续人工神经网络常用学习规则_第5页
第5页 / 共44页
点击查看更多>>
资源描述

《基础知识+续人工神经网络常用学习规则》由会员分享,可在线阅读,更多相关《基础知识+续人工神经网络常用学习规则(44页珍藏版)》请在金锄头文库上搜索。

1、人工神经网络常用的学习规则,MP模型是于1943年由美国心理学家McCulloch和数学家Pitts建立的第一个神经元模型,也可以称为处理单元(Processing Element),它是一个多输入多输出的非线性信息处理单元。如图5-6所示,图5-7为MP模型的作用函数。MP神经元是人工神经元模型的基础,也是人工神经网络模型的基础。,图5-6 MP神经元模型,人类具有学习能力,人类的知识和智慧是在不断的学习与实践中逐渐形成和发展起来的。关于人工神经网络的学习机制,涉及到神经元如何分布、处理和存储信息。常用的人工神经网络学习规则如下,图5-8是权值调整的一般情况,其中:Wj为联接到神经元j的权值

2、向量,X为输入向量,r为学习信号,d为导师信号。权向量的调整准则为,式中 为学习速率。权值调整的迭代格式为,权值调整的一般情况,1)Hebbian学习规则,1949年,心理学家D.O.Hebb最早提出了关于神经网络学习机理的“突触修正”的假设。该假设指出,当神经元的突触前膜电位与后膜电位同时为正时,突触传导增强,当前膜电位与后膜电位正负相反时,突触传导减弱,也就是说,当神经元i与神经元j同时处于兴奋状态时,两者之间的连接强度应增强。根据该假设定义的权值调整方法,称为Hebbian学习规则。在Hebbian学习规则中,学习信号简单地等于神经元的输出,式中 W为权向量,X为输入向量。权向量的调整公

3、式为,权向量中,每个分量的调整由下式确定,上式表明,权值调整量与输入输出的乘积成正比。显然,经常出现的输入模式将对权向量有最大的影响。在这种情况下,Hebbian学习规则需预先设置权饱和值,以防止输入和输出正负始终一致时出现权值无约束增长。此外,要求权值初始化,即在学习开始前 (t=0),先对Wj(0)赋予零附近的小随机数。Hebbian学习规则代表一种纯前馈、无导师学习。该规则至今仍在各种神经网络模型中起着重要作用。,2)Perceptron(感知器)学习规则,1958年,美国学者Frank Rosenblatt首次定义了一个具有单层计算单元的神经网络结构,称为感知器(Perceptron)

4、。感知器的学习规则规定,学习信号等于神经元期望输出(教师信号)与实际输出之差,式中 为期望的输出 ,。 感知器采用了与阈值转移函数类似的符号转移函数,其表达为,因此,权值调整公式应为,式中,当实际输出与期望值相同时,权值不需要调整;在有误差存在情况下,由于 、 , 权值调整公式简化为 感器学习规则只适用于二进制神经元,初始权值可取任意值。 感知器学习规则代表一种有导师学习。由于感知器理论是研究其他神经网络的基础,该规则对于神经网络的有导师学习具有极为重要的意义。,3)(Delta)学习规则 1986年,认知心理学家McClelland和Rumelhart在神经网络训练中引入了规则,该规则亦可称

5、为连续感知器学习规则,与上述离散感知器学习规则并行。规则的学习信号规定为,上式定义的学习信号称为。式中是转移函数的导数。显然,规则要求转移函数可导,因此只适用于有导师学习中定义的连续转移函数,如Sigmoid函数。 事实上,规则很容易由输出值与期望值的最小平方误差条件推导出来。定义神经元输出与期望输出之间的平方误差为,式中,误差E是权向量Wj的函数。欲使误差E最小,Wj应与误差的负梯度成正比,即 式中,比例系数是一个正常数。由式(5-12),误差梯度为,可以看出,上式中与X之间的部分正是式(5-11)中定义的学习信号。Wj中每个分量的调整由下式计算 学习规则可推广到多层前馈网络中,权值可初始化

6、为任意值。,4)Widrow-Hoff学习规则 1962年,Bernard Widrow和Marcian Hoff提出了Widrow-Hoff学习规则,又称为最小均方规则(LMS)。Widrow-Hoff学习规则的学习信号为,权向量调整量为 的各分量为 实际上,如果在学习规则中假定社会元转移函数为 ,则有, 此时式(5-11)与式(5-17)相同。,因此,Widrow-Hoff学习规则可以看成是学习规则的一个特殊情况。该学习规则与神经元采用的转移函数无关,因而不需要对转移函数求导数,不仅学习速度较快,而且具有较高的精度。权值可初始化为任意值。,5) Correlation(相关)学习规则 相关

7、学习规则学习信号为 易得出分别为,该规则表明,当dj是xi的期望输出时,相应的权值增量ij与两者的乘积djxi成正比。 如果Hebbian学习规则中的转移函数为二进制函数,且有oj=dj,则相关学习规则可看作Hebbian规则的一种特殊情况。应当注意的是,Hebbian学习规则是无导师学习,而相关学习规则是有导师学习。这种学习规则要求将权值初始化为零。,6) Winner-Take-all(胜者为王)学习规则 Winner-Take-all学习规则是一种竞争学习规则,用于无导师学习。一般将网络的某一层确定为竞争层,对于一个特定的输入X,竞争层的所有p个神经元均有输出响应,其中响应值最大的神经元

8、为在竞争中获胜的神经元,即,只有获胜神经元才有权调整其权向量,调整量为,式中,是学习常数,一般其值随着学习的进展而减小。由于两个向量的点积越大,表明两者越近似,所以调整获胜神经元权值的结果是使Wm进一步接近当前输入X。显然,当下次出现与X相像的输入模式时,上次获胜的神经元更容易获胜。在反复的竞争学习过程中,竞争层的各神经元所对应的权向量被逐渐调整为输入样本空间的聚类中心。在有些应用中,以获胜神经元为中心定义一个获胜领域,除获胜神经元调整权值外,领域内的其他神经元也不同程度地调整权值。权值一般被初始化为任意值并进行归一化处理。,7)Outstar(外星)学习规则 神经网络中有两类常见节点,分别称

9、为内星节点和外星节点,其特点见图5-8和5-9。图5-8中的内星节点总是接受来自四面八方的输入加权信号,因此是信号的汇聚点,对应的权值向量称为内星权向量;图5-9中的外星节点总是向四面八方发出输出加权信号,因此是信号的发散点,对应的权值向量称为外星权向量。内星学习规则定内星节点的输出响应是输入向量X和内星权向量Wj的点积。该点积反映了X与Wj的相似程度,其权值按式(5-23)调整。因此Winner-Take-All学习规则与内星规则一致。,下面介绍外星学习规则。外星学习规则属于有导师学习,其目的是为了生成一个期望的维输出向量,设对应的外星权向量用Wj表示,学习规则如下,式中,的规定与作用与式(

10、5-23)中的相同,给出的外星学习规则使节点j对应的外星权向量向期望输出向量d靠近。,2.4神经网络学习,人工神经网络是由人工神经元(简称神经元)互联组成的网络,它是从微观结构和功能上对人脑的抽象、简化,是模拟人类智能的一条重要途径,反映了人脑功能的若干基本特征,如并行信息处理、学习、联想、模式分类、记忆等。目前,已发展了几十种神经网络,例如Hopfield模型,Feldmann等的连接型网络模型,Hinton等的玻尔茨曼机模型,以及Rumelhart等的多层感知机模型和Kohonen的自组织网络模型等等。,在这众多神经网络模型中,应用最广泛的是多层感知机神经网络。多层感知机神经网络的研究始于

11、20世纪50年代,但一直进展不大。直到1985年,Rumelhart等人提出了误差反向传递学习算法(即BP算法),实现了Minsky的多层网络设想。,神经网络对控制领域和反问题研究有吸引力的特征表现在:(1)能逼近任意L2上的非线性函数;(2)信息的并行分布式处理与存储;(3)可以多输入、多输出;(4)便于用超大规模集成电路(VLSI)或光学集成电路系统实现,或用现有的计算机技术实现;(5)能进行学习,以适应环境的变化。,决定网络整体性能的三大要素包括:(1)神经元(信息处理单元)的特性;(2)神经元间相互联接的形式拓扑结构;(3)为适应环境而改善性能的学习规则。表5-1为对神经网络发展有重要

12、影响的神经网络,神经网络通过相继给网络输入一些样本模式,并按照一定的规则(或学习算法)不断改变网络各层的连接权值,使网络的输出不断地接近期望的输出值,这一个过程称为神经网络的学习或训练。学习的实质是可变权值的动态调整的自适应过程。改变权值的规则称为学习规则或学习算法(相应也称训练规则或训练算法)。单个处理单元,无论采用哪一种学习规则进行调整,其算法都十分简单。大量处理单元集体进行权值调整时,网络就呈现出“智能”的特性。,神经网络结构和功能不同,学习方法也各不相同。在人工神经网络的结构和转移函数决定以后,如何设计权使网络达到一定的要求,就成为决定神经网络信息处理性能的第三大要素。学习问题归根结底

13、就是网络连接权的调整问题,其方法有以下几种:,图5-1 有导师学习神经网络模型图 5-2 无导师学习神经网络模型,1)有导师学习(Supervised Learning,SL),在学习过程中,网络根据实际输出与期望输出的比较,进行联接权值的调整,将期望输出称为导师信号,它是评价学习的标准。这种学习模式采用纠错的规则,学习方法要在给出输入模式X的同时在输出侧还要给出与之相应的目标模式,又称教师信号或期望输出模式,两者一起称为训练对。,一般训练一个网络需要许多个训练对,称为训练集。学习时,使用训练集中的某个输入模式,得到一个网络的实际输出模式y,再与期望输出模式J相比较,不相符时求出误差,按误差的

14、大小和方向调整权值,以使误差向着减小方向变化。然后逐个用训练集中的每个训练对,不断地修改网络的权值,整个训练集反复地作用于网络许多次,直到训练集作用下的误差小于事前规定的容许值为止,即认为网络在有导师的训练下已学会了训练数据中包含的知识和规则,学习过程便告结束,并存储于网络中,提供给运行阶段使用。,2)无导师学习(Non Supervised Learning,NSL),无导师信号提供给网络,网络能够根据特有的结构和学习规则,进行联接权值的调整,此时,网络的学习评价标准隐含其内部。在学习时,训练集仅由各输入模式组成,而不提供相应的输出模式。网络能恨据特有的内部结构和学习规则,响应输入的激励反复

15、调整权值,这个过程称为网络的自组织。,自组织学习是靠神经元本身对输入模式的不断适应,抽取输入信号的规律(如统计规律), 从而将输入模式按其相似程度自动划分若干类,将其输入特征记忆下来,当它再次出现,就能把它识别出来。这种学习,网络调整权值不受外来的教师信号的影响,可以认为这种学习评价准则隐含于网络内部。,3)再励学习(Reinforcement Learning,RL),它把学习看作试探评价(奖或惩)过程,学习机选择一个动作(输出)作用于环境之后,使环境的状态改变,并产生一个再励信号(奖或惩)反馈至学习机,学习机依据再励信号与环境当前的状态,再选择下一动作作用于环境。选择的原则,是使受到奖励的可能性最大。,图5-3 再励学习神经网络模型,

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 高等教育 > 大学课件

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号