神经网络控制教程文件

上传人:yuzo****123 文档编号:137579953 上传时间:2020-07-09 格式:PPT 页数:52 大小:1.17MB
返回 下载 相关 举报
神经网络控制教程文件_第1页
第1页 / 共52页
神经网络控制教程文件_第2页
第2页 / 共52页
神经网络控制教程文件_第3页
第3页 / 共52页
神经网络控制教程文件_第4页
第4页 / 共52页
神经网络控制教程文件_第5页
第5页 / 共52页
点击查看更多>>
资源描述

《神经网络控制教程文件》由会员分享,可在线阅读,更多相关《神经网络控制教程文件(52页珍藏版)》请在金锄头文库上搜索。

1、1,第6章 神经网络控制,2,6.1 概述,6.1.1生物神经元模型 6.1.2 人工神经元模型 6.1.3 人工神经网络模型 6.1.4 神经网络的学习方法,3,6.1.1生物神经元模型,人脑大约包含1012个神经元,分成约1000种类型,每个神经元大约与102104个其他神经元相连接,形成极为错综复杂而又灵活多变的神经网络。每个神经元虽然都十分简单,但是如此大量的神经元之间、如此复杂的连接却可以演化出丰富多彩的行为方式。同时,如此大量的神经元与外部感受器之间的多种多样的连接方式也蕴含了变化莫测的反应方式。,4,6,6.1.2 人工神经元模型,人工神经元是对生物神经元的一种模拟与简化。它是神

2、经网络的基本处理单元。如图所示为一种简化的人工神经元结构。它是一个多输入、单输出的非线性元件。,7,8,其输入、输出关系可描述为 其中, 是从其他神经元传来的输入信号; 表示从神经元j到神经元i的连接权值; 为阈值; 称为激发函数或作用函数。,9,输出激发函数 又称为变换函数,它决定神经元(节点)的输出。该输出为1或0,取决于其输入之和大于或小于内部阈值 。函数 一般具有非线性特性。下图表示了几种常见的激发函数。 1. 阈值型函数(见图(a),(b) 2. 饱和型函数(见图(c) 3. 双曲函数(见图(d) 4. S型函数(见(e) 5. 高斯函数(见图(f),10,11,6.1.3 人工神经

3、网络模型,人工神经网络是以工程技术手段来模拟人脑神经元网络的结构与特征的系统。利用人工神经元可以构成各种不同拓扑结构的神经网络,它是生物神经网络的一种模拟和近似。就神经网络的主要连接型式而言,目前已有数十种不同的神经网络模型,其中前馈型网络和反馈型网络是两种典型的结构模型。,12,1. 前馈型神经网络,前馈型神经网络,又称前向网络(Feed forward NN)。如图所示,神经元分层排列,有输入层、隐层(亦称中间层,可有若干层)和输出层,每一层的神经元只接受前一层神经元的输入。 从学习的观点来看,前馈网络是一种强有力的学习系统,其结构简单而易于编程;从系统的观点看,前馈网络是一静态非线性映射

4、,通过简单非线性处理单元的复合映射,可获得复杂的非线性处理能力。但从计算的观点看,缺乏丰富的动力学行为。大部分前馈网络都是学习网络,它们的分类能力和模式识别能力一般都强于反馈网络,典型的前馈网络有感知器网络、BP 网络等。,13,14,2. 反馈型神经网络,反馈型神经网络(Feedback NN)的结构如图所示。如果总节点(神经元)数为N,那么每个节点有N个输入和一个输出,也就是说,所有节点都是一样的,它们之间都可相互连接。 反馈神经网络是一种反馈动力学系统,它需要工作一段时间才能达到稳定。Hopfield神经网络是反馈网络中最简单且应用广泛的模型,它具有联想记忆(Content一Addres

5、sible Memory,CAM)的功能,如果将Lyapunov函数定义为寻优函数,Hopfie1d神经网络还可以用来解决快速寻优问题。,15,16,6.1.4 神经网络的学习方法,学习方法是体现人工神经网络智能特性的主要标志,离开了学习算法,人工神经网络就失去了自适应、自组织和自学习的能力。目前神经网络的学习方法有多种,按有无导师来分类,可分为有教师学习(Supervised Learning)、无教师学习(Unsupervised Learning)和再励学习(Reinforcement Learning)等几大类。在有教师的学习方式中,网络的输出和期望的输出(即教师信号)进行比较,然后根

6、据两者之间的差异调整网络的权值,最终使差异变小。在无教师的学习方式中,输入模式进人网络后,网络按照一预先设定的规则(如竞争规则)自动调整权值,使网络最终具有模式分类等功能。再励学习是介于上述两者之间的一种学习方式。,17,神经网络中常用的几种最基本的学习方法,1. Hebb学习规则 两个神经元同时处于激发状态时,它们之间的连接强度将得到加强,这一论述的数学描述被称为Hebb学习规则 Hebb学习规则是一种无教师的学习方法,它只根据神经元连接间的激活水平改变权值,因此这种方法又称为相关学习或并联学习。,18,2Delta()学习规则 规则实现了E中的梯度下降,因此使误差函数达到最小值。但学习规则

7、只适用于线性可分函数,无法用于多层网络。BP网络的学习算法称为BP算法,是在规则基础上发展起来的,可在多网络上有效地学习。,19,3概率式学习 从统计力学、分子热力学和概率论中关于系统稳态能量的标准出发,进行神经网络学习的方式称概率式学习。神经网络处于某一状态的概率主要取决于在此状态下的能量,能量越低,概率越大。同时,此概率还取决于温度参数T。T越大,不同状态出现概率的差异便越小,较容易跳出能量的局部极小点而到全局的极小点;T越小时,情形正相反。概率式学习的典型代表是Boltzmann机学习规则。它是基于模拟退火的统计优化方法,因此又称模拟退火算法。,20,4竞争式学习 竞争式学习属于无教师学

8、习方式。此种学习方式利用不同层间的神经元发生兴奋性联接,以及同一层内距离很近的神经元间发生同样的兴奋性联接,而距离较远的神经元产生抑制性联接。在这种联接机制中引人竟争机制的学习方式称为竟争式学习。它的本质在于神经网络中高层次的神经元对低层次神经元的输入模式进行竞争识别。,21,6.2 前向神经网络,6.2.1 感知器网络 感知器(perceptrvon)是一个具有单层神经元的神经网络,并由线性阈值元件组成,是最简单的前向网络。它主要用于模式分类,单层的感知器网络结构如下图所示。,22,23,感知器的一种学习算法:,随机地给定一组连接权 输入一组样本和期望的输出(亦称之为教师信号) 计算感知器实

9、际输出 修正权值 选取另外一组样本,重复上述2)4)的过程,直到权值对一切样本均稳定不变为止,学习过程结束。,24,6.2.2 BP网络,误差反向传播神经网络,简称BP网络(Back Propagation),是一种单向传播的多层前向网络。在模式识别、图像处理、系统辨识、函数拟合、优化计算、最优预测和自适应控制等领域有着较为广泛的应用。如图是BP网络的示意图。,25,26,误差反向传播的BP算法简称BP算法,其基本思想是最小二乘算法。它采用梯度搜索技术,以期使网络的实际输出值与期望输出值的误差均方值为最小。 BP算法的学习过程由正向传播和反向传播组成。在正向传播过程中,输入信息从输入层经隐含层

10、逐层处理,并传向输出层,每层神经元(节点)的状态只影响下一层神经元的状态。如果在输出层不能得到期望的输出,则转人反向传播,将误差信号沿原来的连接通路返回,通过修改各层神经元的权值,使误差信号最小。,27,1BP网络的前馈计算 2BP网络权值的调整规则 1). 输出层权系数的调整 2). 隐含层节点权系数的调整 3BP学习算法的计算步骤,28,3BP学习算法的计算步骤 1). 初始化 置所有权值为较小的随机数 2). 提供训练集 3). 计算实际输出,计算隐含层、输出层各神经元输出 4). 计算目标值与实际输出的偏差E 5). 计算 6). 计算 7). 返回“2)”重复计算,直到误差满足要求为

11、止,29,30,在使用BP算法时,应注意的几个问题是: 1). 学习开始时,各隐含层连接权系数的初值应以设置较小的随机数较为适宜。 2). 采用S型激发函数时,由于输出层各神经元的输出只能趋于1或0,不能达到1或0。在设置各训练样本时,期望的输出分量dpk不能设置为1或0,以设置为或0,1较为适宜。 3). 学习速率的选择,在学习开始阶段,选较大的值可以加快学习速度。学习接近优化区时,值必须相当小,否则权系数将产生振荡而不收敛。平滑因子的选值在左右。,31,6.2.3 BP网络学习算法的改进,1多层前向BP网络的优点: 1). 网络实质上实现了一个从输入到输出的映射功能,而数学理论已证明它具有

12、实现任何复杂非线性映射的功能。这使得它特别适合于求解内部机制复杂的问题; 2). 网络能通过学习带正确答案的实例集自动提取“合理的”求解规则,即具有自学习能力;,32,2多层前向BP网络的问题: 1). BP算法的学习速度很慢 2). 网络训练失败的可能性较大 3). 难以解决应用问题的实例规模和网络规模间的矛盾 4). 网络结构的选择尚无一种统一而完整的理论指导,一般只能由经验选定 5). 新加入的样本要影响已学习成功的网络,而且刻画每个输入样本的特征的数目也必须相同 6). 网络的预测能力(也称泛化能力、推广能力)与训练能力(也称逼近能力、学习能力)的矛盾,33,3BP网络学习算法的改进,

13、1). 增加“惯性项 2). 采用动态步长 3). 与其他全局搜索算法相结合 4). 模拟退火算法 目前在神经网络的学习中,基于梯度的算法都不能从理论上保证收敛结果是全局最优的。,34,6.2.4 神经网络的训练,可以任意逼近一个紧集上的任意函数这一特点是神经网络广泛应用的理论基础。但是,在实际应用中,目前尚未找到较好的网络构造方法,确定网络的结构和权值参数,来描述给定的映射或逼近一个未知的映射,只能通过学习来得到满足要求的网络模型。,35,神经网络训练的具体步骤如下,1获取训练样本集 获取训练样本集合是训练神经网络的第一步,也是十分重要和关键的一步。它包括训练数据的收集、分析、选择和预处理等

14、 2选择网络类型与结构 神经网络的类型很多,需要根据任务的性质和要求来选择合适的网络类型。 3训练与测试 最后一步是利用获取的训练样本对网络进行反复训练,直至得到合适的映射结果。,36,6.3 反馈神经网络,反馈网络(Recurrent Network),又称自联想记忆网络,其目的是为了设计一个网络,储存一组平衡点,使得当给网络一组初始值时,网络通过自行运行而最终收敛到这个设计的平衡点上。 反馈网络能够表现出非线性动力学系统的动态特性。它所具有的主要特性为以下两点: 第一、网络系统具有若干个稳定状态。当网络从某一初始状态开始运动,网络系统总可以收敛到某一个稳定的平衡状态; 第二,系统稳定的平衡

15、状态可以通过设计网络的权值而被存储到网络中。,37,6.3.1 离散Hopfield网络,1. 网络的结构和工作方式 离散Hopfield网络是一个单层网络,有个神经元节点,每个神经元的输出均接到其它神经元的输入。 各节点没有自反馈,每个节点都附有一个阀值。每个节点都可处于一种可能的状态(1或1),即当该神经元所受的刺激超过其阀值时,神经元就处于一种状态(比如1),否则神经元就始终处于另一状态(比如1)。,38,39,整个网络有两种工作方式:即异步方式和同步方式。 1). 异步方式 2). 同步方式 2. 稳定性和吸引子 3. 连接权的设计 4. 联想记忆,40,6.3.2 连续Hopfiel

16、d网络,连续Hopfield 网络也是单层的反馈网络。其实质上是一个连续的非线性动力学系统,它可以用一组非线性微分方程来描述。当给定初始状态,通过求解非线性微分方程组即可求得网络状态的运行轨迹。若系统是稳定的,则它最终可收敛到一个稳定状态。,41,6.3.3 Boltzmann机,Boltzmann机网络结构和工作方式 Boltzmann机网络是一个相互连接的神经网络模型,具有对称的连接权系数,及wijwji且wii=0。网络由可见单元(Visible Unit)和隐单元(Hidden Unit)构成。可见单元由输入、输出部分组成。每个单元节点只取1或0两种状态。1代表接通或接受,0表示断开或拒绝。当神经元的输入加权和发生变化时,神经元的状态随之更新。各单元之间状态的更新是异步的。,42,与Hopfield网络相似,Boltzmann机的实际运行也分为两个阶段: 第一阶段是学习和训练阶段,即根据学习样本对网络进行训练,将知识分布地存储于网络的连接权中; 第二阶段是工作阶段,即根据输入运行网络得到合适

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 中学教育 > 教学课件 > 高中课件

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号