Hopfield网络

上传人:壹****1 文档编号:567692279 上传时间:2024-07-22 格式:PPT 页数:74 大小:1.40MB
返回 下载 相关 举报
Hopfield网络_第1页
第1页 / 共74页
Hopfield网络_第2页
第2页 / 共74页
Hopfield网络_第3页
第3页 / 共74页
Hopfield网络_第4页
第4页 / 共74页
Hopfield网络_第5页
第5页 / 共74页
点击查看更多>>
资源描述

《Hopfield网络》由会员分享,可在线阅读,更多相关《Hopfield网络(74页珍藏版)》请在金锄头文库上搜索。

1、第五章第五章霍普菲尔德(霍普菲尔德(Hopfield)神经网络神经网络1985年,年,J.J.Hopfield和和D.W.Tank建立了相互连接型的神经建立了相互连接型的神经网络模型,简称网络模型,简称HNN(Hopfield Neural Network),并用它成,并用它成功地探讨了旅行商问题功地探讨了旅行商问题(TSP)的求解方法。前几章介绍的神经的求解方法。前几章介绍的神经网络模型属于前向神经网络,从学习的观点上看,它们是强网络模型属于前向神经网络,从学习的观点上看,它们是强有力的学习系统,结构简单,易于编程。从系统的观点看,有力的学习系统,结构简单,易于编程。从系统的观点看,它们属于

2、一种静态的非线性映射,通过简单非线性处理单元它们属于一种静态的非线性映射,通过简单非线性处理单元的复合映射可获得复杂的非线性处理能力,但它们因缺乏反的复合映射可获得复杂的非线性处理能力,但它们因缺乏反馈,所以并不是一个强有力的动力学系统。馈,所以并不是一个强有力的动力学系统。Hopfield模型属于反馈型神经网络,从计算的角度上讲,它模型属于反馈型神经网络,从计算的角度上讲,它具有很强的计算能力。这样的系统着重关心的是系统的稳定具有很强的计算能力。这样的系统着重关心的是系统的稳定性问题。稳定性是这类具有联想记忆功能神经网络模型的核性问题。稳定性是这类具有联想记忆功能神经网络模型的核心,学习记忆

3、的过程就是系统向稳定状态发展的过程。心,学习记忆的过程就是系统向稳定状态发展的过程。Hopfield网络可用于解决联想记忆和约束优化问题的求解。网络可用于解决联想记忆和约束优化问题的求解。 反馈型神经网络作为非线性动力学系统,可表现出丰富多样反馈型神经网络作为非线性动力学系统,可表现出丰富多样的动态特性,如稳定性、极限环、奇怪吸引子的动态特性,如稳定性、极限环、奇怪吸引子(混沌混沌)等。这些等。这些特性是神经网络引起研究人员极大兴趣的原因之一。研究表明,特性是神经网络引起研究人员极大兴趣的原因之一。研究表明,由简单非线性神经元互连而成的反馈动力学神经网络系统具有由简单非线性神经元互连而成的反馈

4、动力学神经网络系统具有两个重要特征:两个重要特征:1. 系统有若干个稳定状态,如果从某一个初始状态开始运动,系统有若干个稳定状态,如果从某一个初始状态开始运动,系统总可以进入其中某一个稳定状态;系统总可以进入其中某一个稳定状态;2. 系统的稳定状态可以通过改变各个神经元间的连接权值而系统的稳定状态可以通过改变各个神经元间的连接权值而得到。得到。 Hopfield神经网络设计与应用的关键是对其动力学特性的正确神经网络设计与应用的关键是对其动力学特性的正确理解:网络的稳定性是其重要性质,而能量函数是判定网络稳理解:网络的稳定性是其重要性质,而能量函数是判定网络稳定性的基本概念。定性的基本概念。网络

5、结构形式网络结构形式 Hopfield网络是单层对称全反馈网络,根据激励函数选取网络是单层对称全反馈网络,根据激励函数选取的不同,可分为离散型和连续性两种(的不同,可分为离散型和连续性两种( DHNN,CHNN)。)。 DHNN:作用函数为作用函数为函数函数,主要用于联想记忆。,主要用于联想记忆。 CHNN:作用函数为作用函数为S型函数,主要用于优化计算型函数,主要用于优化计算 非线性系统状态演变的形式非线性系统状态演变的形式 在在Hopfield网络中,由于反馈的存在,其加网络中,由于反馈的存在,其加权权 输入和输入和ui,i=1n为网络状态,网络的输出为为网络状态,网络的输出为y1yn,

6、则则u,y的变化过程为一个非线性动力学系的变化过程为一个非线性动力学系统。可用非线性差(微)分方程来描述。一般统。可用非线性差(微)分方程来描述。一般有如下的几种状态演变形式:有如下的几种状态演变形式: (1)渐进稳定)渐进稳定 (2)极限环)极限环 (3)混沌现象)混沌现象 (4)状态轨迹发散)状态轨迹发散网络结构及网络结构及I/O关系关系对于以符号函数为激励函数的网络,网络的方程可对于以符号函数为激励函数的网络,网络的方程可写为:写为: 图2.8.2离散型 Hopfield神经网络Hopfield网络为对称网络,网络为对称网络,wij=wji。当。当wii0时为无自时为无自反馈型,反之为全

7、自反馈型反馈型,反之为全自反馈型两种工作方式两种工作方式 (1)串行工作方式)串行工作方式 在某一时刻只有一个神经元在某一时刻只有一个神经元改变状态,而其它神经元的输出不变。这一变化改变状态,而其它神经元的输出不变。这一变化的神经元可以按照随机的方式或预定的顺序来选的神经元可以按照随机的方式或预定的顺序来选择。择。 (2)并行工作方式)并行工作方式 在某一时刻有在某一时刻有N个神经元改个神经元改变状态,而其它的神经元的输出不变。变化的这变状态,而其它的神经元的输出不变。变化的这一组神经元可以按照随机方式或某种规则来选择。一组神经元可以按照随机方式或某种规则来选择。当当N=n时,称为全并行方式。

8、时,称为全并行方式。DHNN的稳定工作点的稳定工作点DHNN的状态变换的状态变换从从Hopfield网络的模型定义中可以看到对于网络的模型定义中可以看到对于n节点的节点的HNN有有2n个可能的状态,即网络状态可以用一个包含个可能的状态,即网络状态可以用一个包含0和和1的矢量表示的矢量表示每一个时刻整个网络处于一个状态,状态的变化采用每一个时刻整个网络处于一个状态,状态的变化采用随机异步更新方式,即随机地选择下一个要更新的神随机异步更新方式,即随机地选择下一个要更新的神经元,且允许所有神经元具有相同的平均变化概率。经元,且允许所有神经元具有相同的平均变化概率。节点状态更新包括三种情况:由节点状态

9、更新包括三种情况:由0变为变为1、由、由1变为变为0和状态保持不变。和状态保持不变。按照单元异步更新工作方式,某一时刻网络中只有一按照单元异步更新工作方式,某一时刻网络中只有一个节点被选择进行状态更新,当该节点状态变化时,个节点被选择进行状态更新,当该节点状态变化时,网络状态就以一概率转移到另一状态;当该节点状态网络状态就以一概率转移到另一状态;当该节点状态保持时,网络状态更新的结果保持前一时刻的状态。保持时,网络状态更新的结果保持前一时刻的状态。DHNN的状态变换的状态变换通常网络从某一初始状态开始经过多次更新后才可能通常网络从某一初始状态开始经过多次更新后才可能达到某一稳态。使用异步状态更

10、新策略有以下优点:达到某一稳态。使用异步状态更新策略有以下优点:(1)算法实现容易,每个神经元节点有自己的状态)算法实现容易,每个神经元节点有自己的状态更新时刻不需要同步机制;更新时刻不需要同步机制;(2)以串行方式更新网络的状态可以限制网络的输)以串行方式更新网络的状态可以限制网络的输出状态,避免不同稳态以等概率出现。出状态,避免不同稳态以等概率出现。一旦给出一旦给出HNN的权值和神经元的阈值,网络的状态转的权值和神经元的阈值,网络的状态转移序列就确定了。移序列就确定了。DHNN的状态变换的状态变换例例 计算如图所示计算如图所示3节点节点HNN的状态转移关系。的状态转移关系。 该网络的参数为

11、:该网络的参数为: 现在以初态现在以初态(可任意选定可任意选定)v1v2v3(000)为例,以异步方式运行为例,以异步方式运行网络,考察各个节点的状态转移情况。现在考虑每个节点网络,考察各个节点的状态转移情况。现在考虑每个节点v1v2v3以等概率以等概率(13)被选择。假定首先选择节点被选择。假定首先选择节点v1,则节点状,则节点状态为:态为:网络状态由网络状态由(000)变化到变化到(100),转移概率为,转移概率为I3假定首先选择节点假定首先选择节点v2,则节点状态为:,则节点状态为:DHNN的状态变换的状态变换网络状态由网络状态由(000)变化到变化到(000)(也可以称为网络状态保持不

12、变也可以称为网络状态保持不变),转移概率为转移概率为13。假定首先选择节点假定首先选择节点v3,则节点状态为:,则节点状态为:网络状态由网络状态由(000)变化到变化到(000),转移概率为,转移概率为13。从上面网络的运行看出,网络状态从上面网络的运行看出,网络状态(000)不会转移到不会转移到(010)和和(001),而以,而以13的概率转移到的概率转移到(100),以,以23的概率保持不变的概率保持不变 同理,可以计算出其他状态之间同理,可以计算出其他状态之间的转移关系如图所示。图中标出了的转移关系如图所示。图中标出了状态保持不变的转移概率,其余未状态保持不变的转移概率,其余未标注的均为

13、标注的均为13。DHNN的状态变换的状态变换 从这个例子,可以看出两个显著的特征:从这个例子,可以看出两个显著的特征: (1)状态状态(110)是一个满足前面定义的稳定状态。是一个满足前面定义的稳定状态。 (2)从任意初始状态开始,网络经过有限次状态更新后,都从任意初始状态开始,网络经过有限次状态更新后,都将到达该稳定状态。将到达该稳定状态。 Hopfield网络是一类反馈动力学系统,稳定性是这类系统的重网络是一类反馈动力学系统,稳定性是这类系统的重要特性。对于这类模型,有如下稳定性判据:要特性。对于这类模型,有如下稳定性判据: 当网络工作在串行方式下时,若当网络工作在串行方式下时,若W为对称

14、阵,且其对角元为对称阵,且其对角元素非负,则其能量函数单调下降,网络总能收敛到一个稳定点。素非负,则其能量函数单调下降,网络总能收敛到一个稳定点。DHNN的能量函数的能量函数上例的状态转移关系有这样的规律:任意一个状态要么在同一上例的状态转移关系有这样的规律:任意一个状态要么在同一“高度高度”变化,要么从上向下转移。变化,要么从上向下转移。Hopfield网络模型是一个多输入、多输出、带阈值的二态非线网络模型是一个多输入、多输出、带阈值的二态非线性动力学系统。在满足一定的参数条件下,能量函数在网络运性动力学系统。在满足一定的参数条件下,能量函数在网络运行过程中是不断降低、最后趋于稳定平衡状态的

15、。行过程中是不断降低、最后趋于稳定平衡状态的。这种以能量函数作为网络计算的求解工具,被称为计算能量函这种以能量函数作为网络计算的求解工具,被称为计算能量函数。数。Hopfield网络状态变化分析的核心是对每个网络的状态定网络状态变化分析的核心是对每个网络的状态定义一个能量义一个能量E,任意一个神经元节点状态发生变化时,能量值都,任意一个神经元节点状态发生变化时,能量值都将减小。将减小。 假设第假设第i个神经元节点状态个神经元节点状态vi的变化量记为的变化量记为vi相应的能量变化相应的能量变化量记为量记为Ei。所谓能量。所谓能量Ei随状态变化而减小意味着随状态变化而减小意味着Ei总是负值。总是负

16、值。考察两种情况:考察两种情况:(1)当状态当状态vi由由0变为变为1时,时, vi 0。(2)当状态当状态vi由由1变为变为0时,时, vi 0。DHNN的能量函数的能量函数按照能量变化量为负的思路,可将能量的变化量按照能量变化量为负的思路,可将能量的变化量Ei表示为表示为故节点故节点i的能量可定义为:的能量可定义为:显然显然E是对所有的是对所有的Ei按照某种方式求和而得到,即式中出现的按照某种方式求和而得到,即式中出现的12因子。其原因在于离散因子。其原因在于离散Hopfield网络模型中,网络模型中,wij=wji,如直,如直接计算接计算E,将会对,将会对Ei中的每一项计算两次。如上例中

17、对于中的每一项计算两次。如上例中对于3个节个节点的网络,其节点能量为:点的网络,其节点能量为:DHNN的能量函数的能量函数DHNN的能量函数的能量函数由上面给出由上面给出E定义,显然有:定义,显然有:(1)在离散)在离散Hopfield模型状态更新过程中,能量函数模型状态更新过程中,能量函数E随状态随状态变化而严格单调递减。变化而严格单调递减。(2)离散)离散Hopfield模型的稳定状态与能量函数模型的稳定状态与能量函数E在状态空间的在状态空间的局部极小点是一一对应的。局部极小点是一一对应的。上例中各状态的能量为上例中各状态的能量为DHNN的能量函数的能量函数显然,状态显然,状态v1v2v3

18、(110)处的能量最小。下图右边的数值变化处的能量最小。下图右边的数值变化说明了能量单调下降的对应状态。从任意初态开始,网络沿能说明了能量单调下降的对应状态。从任意初态开始,网络沿能量减小量减小(包括同一级能量包括同一级能量)方向更新状态,最终能达到对应能量方向更新状态,最终能达到对应能量极小的稳态。极小的稳态。DHNN的能量函数的能量函数例:运行图所示例:运行图所示4节点模型,并计算其各状态的能量。节点模型,并计算其各状态的能量。任意给定一个初始状态为:任意给定一个初始状态为:v(0)1,0,1,0,先计算先计算E(0)得得E(0)1.0第一轮迭代:第一轮迭代:v1(1)sgn(2.8-6.

19、3)=sgn (-3.5)=0v2(1) sgn(3.4+4.7-(-4.3)=sgn (12.4)= 1v3(1) sgn(2.8-(-2.5)=sgn (5.3)= 1v4(1) sgn(-3.1-5.9-(-9.6)=sgn (0.6)= 1E(1)-14.0v1(2)sgn(3.4+2.8-3.1-6.3)=sgn (-3.2)=0v2(2) sgn(4.7-1.2-(-4.3)=sgn (7.8)= 1v3(2) sgn(4.7-5.9-(-2.5)=sgn (1.3)= 1v4(2) sgn(-1.2-5.9-(-9.6)=sgn (2.5)= 1E(2)-14.0DHNN的能量函

20、数的能量函数 因此,因此,v0,1,1,1是网络的一个稳定状态。实际上此例中是网络的一个稳定状态。实际上此例中有有4个神经元其可能的状态有个神经元其可能的状态有16个,为便于验算,将其各状态个,为便于验算,将其各状态的能量列表如下:的能量列表如下:显然,网络稳定状态下的能量为最小值显然,网络稳定状态下的能量为最小值-14。网络能量极小状态即为网络的一个稳定平衡状态。能量极小点的网络能量极小状态即为网络的一个稳定平衡状态。能量极小点的存在为信息的分布式存储记忆、优化计算提供了基础。如果将记存在为信息的分布式存储记忆、优化计算提供了基础。如果将记忆的样本信息存贮于不同的能量极小点,当输入某一模式时

21、,网忆的样本信息存贮于不同的能量极小点,当输入某一模式时,网络就能络就能“联想记忆联想记忆”与其相关的存储样本,实现联想记忆。与其相关的存储样本,实现联想记忆。DHNN能量极小点的设计能量极小点的设计只有当网络的能量极小点可被选择和设定时,网络所只有当网络的能量极小点可被选择和设定时,网络所具有的能力才能发挥作用。具有的能力才能发挥作用。能量极小点的分布是由网络的连接权值和阈值所决定能量极小点的分布是由网络的连接权值和阈值所决定的。因此设计能量极小点的核心就是如何获取一组合的。因此设计能量极小点的核心就是如何获取一组合适的参数值。适的参数值。有两种方法供选择:有两种方法供选择:(1)根据求解问

22、题的要求直接设计出所需要的连接枚值根据求解问题的要求直接设计出所需要的连接枚值(2)通过提供的附加机制来训练网络,使其自动调整连通过提供的附加机制来训练网络,使其自动调整连接权值,产生期望的能量极小点。接权值,产生期望的能量极小点。前者为静态学习方法,对于一个具体应用而言,权矩前者为静态学习方法,对于一个具体应用而言,权矩阵为定常矩阵、如阵为定常矩阵、如TSP求解等。后者为动态学习方法,求解等。后者为动态学习方法,如联想记忆等。如联想记忆等。 DHNN能量极小点的设计能量极小点的设计例例 以以3节点节点Hopfield网络为例,假定要求设计的能量网络为例,假定要求设计的能量极小点为状态极小点为

23、状态v1v2v3(010)和和v1v2v3(111),且网络,且网络参数参数(权值、阂值权值、阂值)的取值范围为的取值范围为-1,1试确定满足条试确定满足条件的网络参数。件的网络参数。记记v1v2v3(010)为状态为状态A,v1v2v3(111)为状态为状态B对于状态对于状态A,节点激励函数必须满足下列不等式:,节点激励函数必须满足下列不等式:对于状态对于状态B,节点激励函数必须满足下列不等式:,节点激励函数必须满足下列不等式: DHNN能量极小点的设计能量极小点的设计用上面的不等式组,可以求解出用上面的不等式组,可以求解出6个未知量的允许取个未知量的允许取值范围。值范围。假设取假设取w12

24、0.5,则:,则:由由(a)式,式,0.511,取,取10.7由由(d)式,式,0.2w131,取,取W130.4由由(b)式,式,-120,取,取2-0.2由由(e)式,式,-0.7w231,取,取w230.1由由(c)式,式,0.131,取,取30.4;3也满足也满足(f)式。式。于是,确定了一组权值和阈值:于是,确定了一组权值和阈值:w120.5,w130.4,w230.110.7,2-0.2,30.4可以验证,利用这组参数构成的可以验证,利用这组参数构成的Hopfield网络对于任网络对于任何起始状态,始终都将达到所期望的稳态何起始状态,始终都将达到所期望的稳态A和稳态和稳态BDHNN

25、能量极小点的设计能量极小点的设计DHNN能量极小点的设计能量极小点的设计按照上述方法在设计能量极小点时,网络的权值和网按照上述方法在设计能量极小点时,网络的权值和网值可在某个允许区间内取值。因而所选择的一组参数值可在某个允许区间内取值。因而所选择的一组参数虽然满足了能量极小点设计的要求,但同时也可能产虽然满足了能量极小点设计的要求,但同时也可能产生设计所不期望的能量极小点。生设计所不期望的能量极小点。比如,如果选择的权值和阈值为:比如,如果选择的权值和阈值为: w12-0.5, w130.5, w230.4; 1-0.1, 2-0.2, 30.4,可以验证,这组值也满足可以验证,这组值也满足(

26、a)一一(f)不等式组,但是这不等式组,但是这组参数构成的组参数构成的Hopfield网络有三个能量极小点,包括网络有三个能量极小点,包括期望的期望的(010)和和(111)以及以及(100)。DHNN能量极小点的设计能量极小点的设计DHNN的学习和联想记忆的学习和联想记忆Hopfield网络可用于联想记忆。当它用于计算时,其网络可用于联想记忆。当它用于计算时,其权矩阵给定为权矩阵给定为W,目的是寻找具有最小能量,目的是寻找具有最小能量E的网络的网络稳定状态;而作为记忆的学习时稳定状态是给定的,稳定状态;而作为记忆的学习时稳定状态是给定的,通过网络的学习求合适的权矩阵通过网络的学习求合适的权矩

27、阵W(对称阵对称阵)。一旦学。一旦学习完成后,以计算的方式进行联想。习完成后,以计算的方式进行联想。前面设计能量极小点是根据问题的要求用手工计算得前面设计能量极小点是根据问题的要求用手工计算得到一组网络的参数。而网络的学习是通过一定的学习到一组网络的参数。而网络的学习是通过一定的学习算法,自动地得到所需要的参数。对于算法,自动地得到所需要的参数。对于Hopfield网络,网络,可以采用可以采用Hebb学习规则和误差型学习算法。学习规则和误差型学习算法。 DHNN的学习和联想记忆的学习和联想记忆 用用 DHNN实现联想记忆需要考虑两个重要的问题:实现联想记忆需要考虑两个重要的问题:怎样按记忆确定

28、网络的怎样按记忆确定网络的W和和 ;网络给定之后如何分析它的记忆容量。下面将分别网络给定之后如何分析它的记忆容量。下面将分别讨论:讨论:1、权值的设计方法权值的设计方法2、记忆容量分析记忆容量分析3、权值修正的其它方法权值修正的其它方法权值的设计方法权值的设计方法 权值设计的方法有外积法、伪逆法、正交设计法等。权值设计的方法有外积法、伪逆法、正交设计法等。 外积法(外积法(Hebb学习规则)学习规则):是一种比较简单,在:是一种比较简单,在一定条件下行之有效的方法。一定条件下行之有效的方法。按上述规则求出权矩阵后,网络已经将模式存入网络的按上述规则求出权矩阵后,网络已经将模式存入网络的连接权中

29、。在联想过程中,先给出一个原始模式,使网连接权中。在联想过程中,先给出一个原始模式,使网络处于某种初始状态下,用网络方程动态运行,最后达络处于某种初始状态下,用网络方程动态运行,最后达到一个稳定状态。如果此稳定状态对应于网络已存储的到一个稳定状态。如果此稳定状态对应于网络已存储的某个模式,则称模式是由模式联想起来的。某个模式,则称模式是由模式联想起来的。例例 对于一个对于一个4神经元的网络,取阈值为神经元的网络,取阈值为0。给定两。给定两个模式存贮于网络之中个模式存贮于网络之中 m1: V(1)v1,v2,v3,v41,1,1,1 m2: V(2)v1,v2,v3,v4-1,-1,-1,-1计

30、算可得权矩阵:计算可得权矩阵:给出用于联想的原始模式:给出用于联想的原始模式: mA : V(A)1,1,-1,1运行网络得到稳定状态运行网络得到稳定状态V(1)1,1,1,1,这个稳定状,这个稳定状态正好是网络已记忆的模式态正好是网络已记忆的模式m1由此可以认为由此可以认为A是由模式是由模式mA联想起来的。联想起来的。如联想模式为:如联想模式为: mB : V(B)-1,-1,-1,1则得到另一稳定状态则得到另一稳定状态:V(2)-1,-1,-1,-1,即模式,即模式m2例例 设计设计DHNN,并考察其联想性能。并考察其联想性能。 说明所设计的网络没有准确的记忆所有期望的模式。说明所设计的网

31、络没有准确的记忆所有期望的模式。 因此,因此,Hopfield网络用于联想记忆受其记忆容量和样本差异网络用于联想记忆受其记忆容量和样本差异制约。当记忆的模式较少且模式之间的差异较大,则联想结制约。当记忆的模式较少且模式之间的差异较大,则联想结果正确;而当需记忆的模式较多就容易引起混淆,网络到达果正确;而当需记忆的模式较多就容易引起混淆,网络到达的稳定状态往往不是已记忆的模式。此外当需记忆的模式之的稳定状态往往不是已记忆的模式。此外当需记忆的模式之间较为相近时网络就不能辨别出正确的模式,甚至连自身都间较为相近时网络就不能辨别出正确的模式,甚至连自身都会联想错,即使用已记忆的模式作为联想模式会联想

32、错,即使用已记忆的模式作为联想模式(自联想自联想),也,也可能出错。可能出错。记忆容量分析记忆容量分析 当网络只记忆一个稳定的模式时,该模式网络只记忆一个稳定的模式时,该模式肯定被网络准确无误的记忆住。但当所要肯定被网络准确无误的记忆住。但当所要记忆的模式增加时,情况则发生了变化,记忆的模式增加时,情况则发生了变化,主要表现在下列两点上:主要表现在下列两点上:1、权值移动权值移动2、交叉干扰交叉干扰权值移动权值移动 在网络的学习过程中,网络对权值的记忆实在网络的学习过程中,网络对权值的记忆实际上是逐个实现的。即对权值际上是逐个实现的。即对权值W,有程序有程序:当网络当网络准确的记忆准确的记忆X

33、1时,为了记忆时,为了记忆X2,需要在记忆样本需要在记忆样本X1的权值上加上对样本的权值上加上对样本X2的记忆项的记忆项X2X2T-I,将权值在将权值在原来值的基础上产生了移动。这样网络有可能部分地原来值的基础上产生了移动。这样网络有可能部分地遗忘了以前已记忆的模式。遗忘了以前已记忆的模式。 从动力学的角度来看,从动力学的角度来看,k值较小时,网值较小时,网络络Hebb学习规则可以使输入学习样本成学习规则可以使输入学习样本成为其吸引子。随着为其吸引子。随着k值的增加,不但难以值的增加,不但难以使后来的样本成为网络的吸引子,而且使后来的样本成为网络的吸引子,而且有可能使以记忆住的吸引子的吸引域变

34、有可能使以记忆住的吸引子的吸引域变小,使原来处于吸引子位置上的样本从小,使原来处于吸引子位置上的样本从吸引子的位置移动。对一记忆的样本发吸引子的位置移动。对一记忆的样本发生遗忘,这种现象称为生遗忘,这种现象称为“疲劳疲劳”。交叉干扰交叉干扰 网络在学习多个样本后,在回忆阶段,即验证该记网络在学习多个样本后,在回忆阶段,即验证该记忆样本时所产生的干扰,称为交叉干扰忆样本时所产生的干扰,称为交叉干扰。 对外积型设计而言,如果输入样本是彼此正交的,对外积型设计而言,如果输入样本是彼此正交的,n个神经元的网络其记忆容量的上界为个神经元的网络其记忆容量的上界为n。但是在大但是在大多数情况下,学习样本不可

35、能是正交的,因而网络多数情况下,学习样本不可能是正交的,因而网络的记忆容量要比的记忆容量要比n小得多,一般为小得多,一般为(0.130.15)n。权值修正的其它方法权值修正的其它方法1、学习规则2、伪逆法3、正交化权值设计 学习规则学习规则 学习规则基本公式是学习规则基本公式是: 即通过计算该神经元节点的实际激励值即通过计算该神经元节点的实际激励值A(t),与期望状态与期望状态T(t)进行比较,若不满进行比较,若不满足要求,将两者的误差的一部分作为调足要求,将两者的误差的一部分作为调整量,若满足要求,则相应的权值保持整量,若满足要求,则相应的权值保持不变。不变。伪逆法伪逆法( )()求出权矩阵

36、满秩,其逆存在,则可线性无关的,则如果样本之间是为伪逆,有其中由此可得输入输出之间用权值W来映射,则有设输入样本WXXXXXXXNWNYXWNXXXXTTTN, sgn, 121-*=*=LX用用伪逆法求出的权伪逆法求出的权W可以保证在自己输入时仍能收可以保证在自己输入时仍能收敛到样本自己。如果敛到样本自己。如果N与输入与输入X完全相同,则完全相同,则W也可也可以是对称的,因而满足稳定工作的条件。其实只要以是对称的,因而满足稳定工作的条件。其实只要满足满足Y矩阵中每一个元与矩阵中每一个元与WX矩阵中的每个元有相同矩阵中的每个元有相同的符号就可以满足收敛到本身。的符号就可以满足收敛到本身。正交化

37、权值设计正交化权值设计 这一方法是由这一方法是由Li和和Mechel提出来的,其出发点为:提出来的,其出发点为: (1)要保证系统在异步工作时的稳定性,则它的权是对要保证系统在异步工作时的稳定性,则它的权是对称的称的 (2 )要保证所有的要求的记忆样本都能收敛到自己,不要保证所有的要求的记忆样本都能收敛到自己,不会出现错误的其他收敛值会出现错误的其他收敛值 (3)要求伪稳定点的数目尽可能地少。要求伪稳定点的数目尽可能地少。 (4)要求稳定点吸引域尽可能地大。要求稳定点吸引域尽可能地大。其状态转换公式为其状态转换公式为其连接矩阵可以构造如下:其连接矩阵可以构造如下:L L表示模式向量为表示模式向

38、量为L L对。对。BAMBAM是一个双层回归联想存贮器,是是一个双层回归联想存贮器,是HopfieldHopfield网络的扩展,网络的扩展,也是内容编址存贮器,也是内容编址存贮器,但各单元可以有自反馈。但各单元可以有自反馈。双向联想存贮器(双向联想存贮器(BAM)为了构造为了构造Y Y层到层到X X层的权值矩阵,将层的权值矩阵,将W W取成取成W WT T即可。即可。BAMBAM是双向的,输入和输出取决于转播方向是双向的,输入和输出取决于转播方向。BAMBAM数学上处理如下:数学上处理如下:netYnetY 是是Y Y 层总输入,各单元的输入:层总输入,各单元的输入:在在X X层:层:net

39、XnetX 是是X X 层总输入,各单元的输入:层总输入,各单元的输入:举例:连续连续Hopfield网络网络 CHNN是在是在DHNN的基础上提出的,它的原理的基础上提出的,它的原理和和DHNN相似。由于相似。由于CHNN是以模拟量作为网络的是以模拟量作为网络的输入输出量,各神经元采用并行方式工作,所以输入输出量,各神经元采用并行方式工作,所以它在信息处理的并行性、联想性、实时性、分布它在信息处理的并行性、联想性、实时性、分布存储、协同性等方面比存储、协同性等方面比DHNN更接近于生物神经更接近于生物神经网络。网络。1、网络模型网络模型2、CHNN方程的解及稳定性分析方程的解及稳定性分析3、

40、关于关于Hopfield能量函数的几点说明能量函数的几点说明4、关于关于CHNN的几点结论的几点结论CHNN的网络模型的网络模型对于神经元,放大器的对于神经元,放大器的I/O关系可用如下的方程来描述:关系可用如下的方程来描述:CHNN的网络模型的网络模型对对I/O方程变形得方程变形得:该动态方程描述了神经元该动态方程描述了神经元i的输出和其内部状态的输出和其内部状态ui之间的关系。之间的关系。CHNN实质上是连续的非线性动力学系统,由一组非线性微分实质上是连续的非线性动力学系统,由一组非线性微分方程来描述。方程来描述。当给定初始状态,通过求解非线性微分方程组即可求得网络状当给定初始状态,通过求

41、解非线性微分方程组即可求得网络状态的运动轨迹。态的运动轨迹。若系统是稳定的,则它最终可收敛到一个稳定状态。若系统是稳定的,则它最终可收敛到一个稳定状态。若用模拟电路的硬件来实现该模型,则这个求解非线性微分方若用模拟电路的硬件来实现该模型,则这个求解非线性微分方程的过程将由该电路自动完成,其求解速度非常快。程的过程将由该电路自动完成,其求解速度非常快。CHNN有如下一些特性:有如下一些特性: (1)系统在运行过程中,其能量函数将会逐渐减小到某一极小系统在运行过程中,其能量函数将会逐渐减小到某一极小状态。状态。 (2)系统的极小状态一般不止一个,存在有限个平衡点系统的极小状态一般不止一个,存在有限

42、个平衡点 (3)CHNN可以用模拟电路实现。电路中的放大器和电阻电容等可以用模拟电路实现。电路中的放大器和电阻电容等器件的电气特性在物理上对生物神经网络的某些特征有较好的器件的电气特性在物理上对生物神经网络的某些特征有较好的模拟。模拟。CHNN方程的解及稳定性分析方程的解及稳定性分析 对于对于CHNN来说,关心的同样是稳定性问来说,关心的同样是稳定性问题。在所有影响电路系统稳定的参数中,题。在所有影响电路系统稳定的参数中,一个比较特殊的参数值是放大器的放大倍一个比较特殊的参数值是放大器的放大倍数。当放大器的放大倍数足够大时,网络数。当放大器的放大倍数足够大时,网络由连续性转化成离散型,状态与输

43、出之间由连续性转化成离散型,状态与输出之间的关系表现了建立函数的形状,而正是激的关系表现了建立函数的形状,而正是激励函数代表了一个网络的特点,所以着重励函数代表了一个网络的特点,所以着重分析不同激励函数关系对系统的稳定性的分析不同激励函数关系对系统的稳定性的影响。影响。 当激励函数为线性函数时 对于非线性系统进行稳定性分析,方法之对于非线性系统进行稳定性分析,方法之一就是在系统的平衡点附近对系统进行线性化一就是在系统的平衡点附近对系统进行线性化处理。也可以基于网络的能量函数。下面介绍处理。也可以基于网络的能量函数。下面介绍Hopfield能量函数法。能量函数法。( )nidtdEdtdvdtd

44、Ewwcvijiijii=-1, 2 , 100, 0 , 0 y,时,当且仅当,有则随着网络状态的变化,且为单调连续递增的函数定理:若Lf( ):121 :101111的稳定性有如下的定理关于能量项。入状态和输出值关系的上式第三项表示一种输能量函数定义为CHNNdvvRIvvvwEniviiniiininjjiiji=-=y+-=此定理表明,随着时间的演化,网络的状态总是朝能量减少此定理表明,随着时间的演化,网络的状态总是朝能量减少的方向运动,网络的平衡点就是的方向运动,网络的平衡点就是E的极小点。的极小点。关于关于Hopfield能量函数的能量函数的几点说明几点说明 当对反馈网络应用能量函

45、数后,从任一初始状态当对反馈网络应用能量函数后,从任一初始状态开始,因为在每次迭代后都能满足开始,因为在每次迭代后都能满足 E0,所以网络所以网络的能量将会越来越小,最后趋于稳定点的能量将会越来越小,最后趋于稳定点 E=0。 Hopfield能量函数的物理意义是:在那些渐进稳定能量函数的物理意义是:在那些渐进稳定点的吸引域内,离吸引点越远的状态,所具有的能量点的吸引域内,离吸引点越远的状态,所具有的能量越大,由于能量函数的单调下降特性,保证状态的运越大,由于能量函数的单调下降特性,保证状态的运动方向能从远离吸引点处,不断地趋于吸引点,直到动方向能从远离吸引点处,不断地趋于吸引点,直到达到稳定点

46、。达到稳定点。 几点说明:几点说明: 1 能量函数为反馈网络的重要概念。能量函数为反馈网络的重要概念。根据能量函数可以方便的判断系统的稳根据能量函数可以方便的判断系统的稳定性;定性; 2 Hopfield选择的能量函数,只是保选择的能量函数,只是保证系统稳定和渐进稳定的充分条件,而证系统稳定和渐进稳定的充分条件,而不是必要条件,其能量函数也不是唯一不是必要条件,其能量函数也不是唯一的。的。关于关于CHNN的几点结论的几点结论 1)具有良好的收敛性;)具有良好的收敛性; 2)具有有限个平衡点;)具有有限个平衡点; 3)如果平衡点是稳定的,那么它也一定是渐进稳)如果平衡点是稳定的,那么它也一定是渐

47、进稳定的;定的; 4)渐进稳定平衡点为其能量函数的局部极小点;)渐进稳定平衡点为其能量函数的局部极小点; 5)能将任意一组希望存储的正交化矢量综合为网)能将任意一组希望存储的正交化矢量综合为网络的渐进平衡点;络的渐进平衡点; 6)网络的存储信息表现为神经元之间互连的分布)网络的存储信息表现为神经元之间互连的分布式动态存储;式动态存储; 7)网络以大规模、非线性、连续时间并行方式处)网络以大规模、非线性、连续时间并行方式处理信息,其计算时间就是网络趋于平衡点的时间。理信息,其计算时间就是网络趋于平衡点的时间。Hopfield网络网络在组合优化中的应用在组合优化中的应用 组合优化问题,就是在给定约

48、束条件下,组合优化问题,就是在给定约束条件下,求出使目标函数极小(或极大)的变量求出使目标函数极小(或极大)的变量组合问题组合问题。 将将Hopfield网络应用于求解组合优化问网络应用于求解组合优化问题,就是把目标函数转化为网络的能量题,就是把目标函数转化为网络的能量函数,把问题的变量对应于网络的状态。函数,把问题的变量对应于网络的状态。这样当网络的能量函数收敛于极小值时,这样当网络的能量函数收敛于极小值时,问题的最优解也随之求出。问题的最优解也随之求出。 旅旅 行行 商商 问问 题题 , 简简 称称 TSP( Traveling Salesman Problem)。问问题题的的提提法法是是

49、:设有设有N个城市,个城市,,记记为为:,用用dij表表示示ci和和cj之之间间的距离,的距离,dij0,(i,j=1,2,n)。有有一一旅旅行行商商从从某某一一城城市市出出发发,访访问问各各城城市市一一次次且且仅仅一一次次后后再再回回到到原原出出发发城城市市。要求找出一条最短的巡回路线。要求找出一条最短的巡回路线。N=5 TSP Probelm n=5,并并用用字字母母A、B、C、D、E、分分别别代代表表这这5个个城城市市。当当任任选选一一条条路路径径如如B-D-E-A-C,,则其总路径长度可表示为则其总路径长度可表示为第第一一步步就就是是将将问问题题映映射射到到一一个个神神经经网网络络。假

50、假定定每每个个神神经经元元的的放放大大器器有有很很高高的的放放大大倍倍数数,神神经经元元的的输输出出限限制制在在二二值值0和和1上上,则则映映射射问问题题可可以以用用一一个个换换位位矩矩阵阵(PM,PermutationMatrix)来进行,换位矩阵可如下图所示。来进行,换位矩阵可如下图所示。换位矩阵换位矩阵次序城市12345A00010B10000C00001D01000E00100对于对于n个城市需用由个城市需用由n2个神经元构成的个神经元构成的n x n阶阶PM来表来表示旅行路线。在该换位矩阵中每一列只有一个元素为示旅行路线。在该换位矩阵中每一列只有一个元素为1,其余为,其余为0,列的大

51、小表示对某城市访问的次序。同样,列的大小表示对某城市访问的次序。同样每一行也只有一个元素为每一行也只有一个元素为1,其余为,其余为0。通过这样的。通过这样的PM,可唯一地确定一条旅行路线。,可唯一地确定一条旅行路线。对于对于n个城市的个城市的TSP,存在,存在n!个输出状态。然而一个旅个输出状态。然而一个旅行只是描述一条访问城市的路线。对于访问行只是描述一条访问城市的路线。对于访问n个城市,个城市,这是一个这是一个n个城市沿闭合路径排列的问题,它共有个城市沿闭合路径排列的问题,它共有n!/n=(n-1)!种方案。如果将沿同一闭合路径但方向相反种方案。如果将沿同一闭合路径但方向相反的两个方案合算

52、为一种方案,的两个方案合算为一种方案,n个城市的个城市的TSP共有共有n!2n条城市旅行路线。显然,条城市旅行路线。显然,TSP的计算时间随城市数的计算时间随城市数目目n呈指数增长。呈指数增长。约束条件和最优条件约束条件和最优条件 矩阵的每个元素对应于神经网络中的每个神经元,矩阵的每个元素对应于神经网络中的每个神经元,则这个问题可用则这个问题可用n2=52=25个神经元组成的个神经元组成的Hopfield网络来求解。网络来求解。 问题的约束条件和最优条件如下:问题的约束条件和最优条件如下:(1)一一个个城城市市只只能能被被访访问问一一次次=换换位位矩矩阵阵每每行行只只有一个有一个“1”。 (2

53、)一一次次只只能能访访问问一一个个城城市市=换换拉拉矩矩阵阵每每列列只只有有一个一个“1”。 (3)总共有)总共有n个城市个城市=换位矩阵元素之和为换位矩阵元素之和为n。 (4)求巡回路径最短求巡回路径最短=网络能量函数的最小值对网络能量函数的最小值对应于应于TSP的最短路径。的最短路径。 用用vij表表示示换换位位矩矩阵阵第第i行行、第第j列列的的元元素素,显显然然只只能能取取1或或0。同时。同时vij也是网络神经元的状态。也是网络神经元的状态。 结论结论:构构成成最最短短路路径径的的换换位位矩矩阵阵一一定定是是形形成成网网络络能能量函数极小点的网络状态。量函数极小点的网络状态。 对于用对于

54、用HNN来求解来求解TSP问题,就是要恰当地构造问题,就是要恰当地构造一个能量函数,使得一个能量函数,使得HNN网络中的网络中的n个神经元能个神经元能够求得问题的解,并使其能量处于最低状态。为够求得问题的解,并使其能量处于最低状态。为此,构造能量函数需考虑以下两个问题;此,构造能量函数需考虑以下两个问题; (1)能量函数要具有适合于能量函数要具有适合于PM的稳定状态的稳定状态(约束约束条件条件)。 (2)能量函数要有利于表达在能量函数要有利于表达在TSP所有合法旅行所有合法旅行路线中最短路线的解路线中最短路线的解(目标函数目标函数)。网络能量函数的构成网络能量函数的构成 1) 第x行的所有元素

55、xiu按顺序两两相乘之和xjnxnijxiuu -=+=111应为 0。 2) n个行的所有元素按顺序两两相乘之和yinxninijxiuu =-=+=1111也应为0。 3) 将第 2)项前乘系数 A/2,则可作为网络能量函数的第一项 xjnxninijxiAuu=-=+=11112 同理,对应于第( 2)个约束条件,可得能量函数的第二项 yininxnxyxiBuu =-=+=11112 式中,B/2 为系数。 第(4)项为优化目标,即优化要求其表达式为 由前三个约束条件可知,这两项至少有一项为0,顺序访问X、Y两城市所有可能途径(长度)可表示为 能量函数表达式能量函数表达式网络加权及阈值

56、网络加权及阈值求解求解TSP网络的迭代方程网络的迭代方程 (1)网络参数的选择)网络参数的选择网络参数网络参数A,B,C,D,u0等对网络的变化相当敏感,原则上不等对网络的变化相当敏感,原则上不能随意改变,能随意改变,Hopfield和和Tank给出的参数值为:给出的参数值为:ABD500,C200,u00.02。 这种选择是考虑了以下两点后的折中:这种选择是考虑了以下两点后的折中: D值较小时,容易获得合法路径;值较小时,容易获得合法路径;D值较大时,可增加路径值较大时,可增加路径长度的权重,从而使合法路径趋于最优;长度的权重,从而使合法路径趋于最优; u0是放大器的增益,太小时阈值函数接近

57、于符号函数,不能是放大器的增益,太小时阈值函数接近于符号函数,不能获得较好的解;太大时,获得较好的解;太大时,S型阈值函数过于平坦,神经元状态不型阈值函数过于平坦,神经元状态不易于收敛到易于收敛到0和和1,从而使获得合法路径的概率下降。,从而使获得合法路径的概率下降。 除了以上两点外,考虑网络参数对收敛速度的影响。实际上选除了以上两点外,考虑网络参数对收敛速度的影响。实际上选择为择为ABD0.5C0.2,u00.02。这样的选择使能量函。这样的选择使能量函数数量级差异减小,从而使能量的数值也减小。程序中是以数数量级差异减小,从而使能量的数值也减小。程序中是以E为收敛判据,因而这种选择加快了程序

58、收敛的速度。为收敛判据,因而这种选择加快了程序收敛的速度。 (2)网络初始状态的选择)网络初始状态的选择 对于网络初始状态对于网络初始状态u0的选择问题,常采用随机扰动的方法。即的选择问题,常采用随机扰动的方法。即给初始值给初始值u0增加一个小的扰动增加一个小的扰动 (3)阈值函数的处理阈值函数的处理双曲正切函数阈值函数的计算包括二次指数计算、二次除法计双曲正切函数阈值函数的计算包括二次指数计算、二次除法计算、三次加法计算,运算量很大,并且在每次迭代中都要调用算、三次加法计算,运算量很大,并且在每次迭代中都要调用N2次,这祥的运算严重彤响了网络的收敛速度。为此把该函数次,这祥的运算严重彤响了网

59、络的收敛速度。为此把该函数离散化,即在函数值变化敏感区域预先计算好足够多的离散函离散化,即在函数值变化敏感区域预先计算好足够多的离散函数值,形成表格存入计算机。这样在迭代过程中就无需经常计数值,形成表格存入计算机。这样在迭代过程中就无需经常计算函数值,而代之以查表值算函数值,而代之以查表值(只需一次乘法和一次加法只需一次乘法和一次加法),可大,可大大提高计算速度。大提高计算速度。 (4)神经元的状态值需取为模拟量神经元的状态值需取为模拟量 由于在迭代过程中,城市位置的选取可能有很多种选择,采由于在迭代过程中,城市位置的选取可能有很多种选择,采用模拟值来处理单元的状态是必然的。利用连续网络的模拟

60、特用模拟值来处理单元的状态是必然的。利用连续网络的模拟特性进行中间处理,可以在一次处理中同时考虑多条路径。这样性进行中间处理,可以在一次处理中同时考虑多条路径。这样可大量减少迭代次数,使计算具有一定的并行特征。可大量减少迭代次数,使计算具有一定的并行特征。用上述方法对用上述方法对10个城市的个城市的TSP做做100次仿真试验,发次仿真试验,发现在现在1000步迭代计算以内有步迭代计算以内有15次收敛到有效路径的次收敛到有效路径的解解(可行解可行解),45次收敛到对应于无效路径的解次收敛到对应于无效路径的解(不满不满足约束条件足约束条件),还有,还有40次未达到收敛,试验中所用常次未达到收敛,试验中所用常数为数为a=b=d=500,c200,u00.02,I1000。说。说明上述方法存在问题,即经常收敛到无效解,而且明上述方法存在问题,即经常收敛到无效解,而且对常数对常数a,b等的选择较敏感,而这些常数的选择又没等的选择较敏感,而这些常数的选择又没有可遵循的规律。针对上述问题,学者们做了许多有可遵循的规律。针对上述问题,学者们做了许多研究来分析上述问题产生的原因和解决方法。研究来分析上述问题产生的原因和解决方法。

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > 工作计划

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号