(完整版)智能控制课件总结2

上传人:玩*** 文档编号:150732229 上传时间:2020-11-09 格式:PDF 页数:12 大小:220.52KB
返回 下载 相关 举报
(完整版)智能控制课件总结2_第1页
第1页 / 共12页
(完整版)智能控制课件总结2_第2页
第2页 / 共12页
(完整版)智能控制课件总结2_第3页
第3页 / 共12页
亲,该文档总共12页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《(完整版)智能控制课件总结2》由会员分享,可在线阅读,更多相关《(完整版)智能控制课件总结2(12页珍藏版)》请在金锄头文库上搜索。

1、遗传算法应用举例例 6.1 利用遗传算法求解区间0,31上的二次函数y=x2 的最大值。 分析原问题可转化为在区间0, 31 中搜索能使y 取最大值的点a 的问题。 那么, 0, 31 中的点 x 就是个体 , 函数值 f(x)恰好就可以作为x 的适应度,区间0, 31就是一 个(解)空间。 这样 , 只要能给出个体x 的适当染色体编码, 该问题就可以用遗传算法来解决。 解(1) 设定种群规模 ,编码染色体,产生初始种群。将种群规模设定为4;用 5 位二进制数编码染色体;取下列个体组成初始种群S1: s1= 13 (01101), s2= 24 (11000) s3= 8 (01000), s

2、4= 19 (10011) (2) 定义适应度函数, 取适应度函数:f (x)=x2(3) 计算各代种群中的各个体的适应度, 并对其染色体进行遗传操作,直到适应度最高的个体(即 31( 11111))出现为止。 首先计算种群S1 中各个体s1= 13(01101), s2= 24(11000),s3= 8(01000), s4= 19(10011) 的适应度f (si) 。容易求得f (s1) = f(13) = 132 = 169,f (s2) = f(24) = 242 = 576 f (s3) = f(8) = 82 = 64,f (s4) = f(19) = 192 = 361 再计算

3、种群S1 中各个体的选择概率。 由 此 可 求 得 P(s1) = P(13) = 0.14,P(s2) = P(24) = 0.49, P(s3) = P(8) = 0.06 , P(s4) = P(19) = 0.31 赌轮选择法 在算法中赌轮选择法可用下面的子过程来模拟: 在 0, 1区间内产生一个均匀分布的随 机数 r。若 rq1,则染色体x1 被选中。 若 qk-10 较小; f (u)- 激活函数 3.离散感知器学习规则(P231)(1) 是一种 有教师学习算法(2) 公式:?w(t) = e (t) x 误 差e (t) = d - y = d sgn (wTx) (3)常用于单

4、层及多层离散感知器网络 4. Widrow-Hoff 学习规则( P231) (1)是一种 有教师学 习算法( 2)公式 ?w(t) = - c ( d-y) x 使训练样本对(x,d),对神经元输出误差E = 1/2 ?(d-y)2 最小。( 3)用于自适应线性单元函 数学习 5概率式学习从统计力学、分子热力学和概率论中关于系统稳态能量的标准出发,进行 神经网络学习的方式称概率式学习。神经网络处于某一状态的概率主要取决于在此状态下 的能量,能量越低,概率越大。同时,此概率还取决于温度参数T。T 越大,不同状态出现 概率的差异便越小,较容易跳出能量的局部极小点而到全局的极小点;T 越小时,情形

5、正相 反。概率式学习的典型代表是Boltzmann 机学习规则。 它是基于模拟退火的统计优化方法, 因此又称模拟退火算法。 6竞争式学习竞争式学习属于无教师学 习方式。定义 :此种学习方式利用不同层间的神 经元发生兴奋性联接,以及同一层内距离很近的神经元间发生同样的兴奋性联接,而距离较 远的神经元产生抑制性联接。在这种联接机制中引人竟争机制的学习方式称为竟争式学习。 竞争式学习方法的本质在于神经网络中高层次的神经元对低层次神经元的输入模式进行竞 争识别。 感知器的一种学习算法: 1)随机地给定一组连接权2)输入一组样本和期望的输出(亦称 之为教师信号) 3)计算感知器实际输出4)修正权值5)选

6、取另外一组样本,重复上述2) 4)的过程,直到权值对一切样本均稳定不变为止,学习过程结束。 BP 网络的学习算法称为 BP 算法,是在规则基础上发展起来的,可在多网络上有效地学 习。误差反向传播神经网络,简称BP 网络( Back Propagation ) ,是一种单向传播的多层 前向网络。在模式识别、图像处理、系统辨识、函数拟合、优化计算、最优预测和自适 应控制等领域有着较为广泛的应用。 误差反向传播的BP 算法简称BP 算法。其基本思想 是最小二乘算法。它采用梯度搜索技术, 以期使网络的实际输出值与期望输出值的误差均方值为最小。BP 算法的学习过程由正向 传播和反向传播组成。在正向传播过

7、程中,输入信息从输入层经隐含层逐层处理,并传向输 出层, 每层神经元(节点)的状态只影响下一层神经元的状态。如果在输出层不能得到期望 的输出, 则转人反向传播, 将误差信号沿原来的连接通路返回,通过修改各层神经元的权值, 使误差信号最小。 BP 网络权值的调整规则1). 输出层权系数的调整2). 隐含层节点权系数的调整 BP 学习算法的计算步骤1). 初始化置所有权值为较小的随机数2). 提供训练集 3). 计算实际输出,计算隐含层、输出层各神经元输出4). 计算目标值与实际输出的偏差E 5). 计算6). 计算7). 返回 “2 ) ” 重复计算,直到误差满足要求为止 在使用 BP 算法时,

8、 应注意的几个问题是: 1). 学习开始时, 各隐含层连接权系数的初值应 以设置较小的随机数较为适宜。2). 采用 S 型激发函数时,由于输出层各神经元的输出只能 趋于 1 或 0,不能达到1 或 0。在设置各训练样本时,期望的输出分量dpk 不能设置为1 或 0,以设置为或0,1 较为适宜。 3). 学习速率的选择,在学习开始阶段,选较大的值可 以加快学习速度。学习接近优化区时,值必须相当小,否则权系数将产生振荡而不收敛。 平滑因子的选值在左右。 BP 网络学习算法的改进1多层前向BP 网络的优点 : 1). 网络实质上实现了一个从输入 到输出的映射功能,而数学理论已证明它具有实现任何复杂非

9、线性映射的功能。这使得它特 别适合于求解内部机制复杂的问题;2). 网络能通过学习带正确答案的实例集自动提取“ 合 理的 ” 求解规则,即具有自学习能力;2多层前向BP 网络的问题:1). BP 算法的学习速 度很慢2). 网络训练失败的可能性较大3). 难以解决应用问题的实例规模和网络规模间的 矛盾4). 网络结构的选择尚无一种统一而完整的理论指导,一般只能由经验选定5). 新加 入的样本要影响已学习成功的网络,而且刻画每个输入样本的特征的数目也必须相同6). 网络的预测能力(也称泛化能力、推广能力)与训练能力(也称逼近能力、学习能力)的矛 盾 3BP 网络学习算法的改进1). 增加 “ 惯

10、性项 ” 2). 采用动态步长3). 与其他全局搜索算 法相结合4). 模拟退火算法 目前在神经网络的学习中,基于梯度的算法都不能从理论上保证收敛结果是全局最优的。 神经网络的训练可以任意逼近一个紧集上的任意函数这一特点是神经网络广泛应用的理 论基础。在实际应用中, 目前尚未找到较好的网络构造方法,确定网络的结构和权值参数, 来描述给定的映射或逼近一个未知的映射,只能通过学习来得到满足要求的网络模型。 神经网络训练的具体步骤如下: 1获取训练样本集:获取训练样本集合是训练神经网络 的第一步,也是十分重要和关键的一步。它包括训练数据的收集、分析、选择和预处理等 2选择网络类型与结构:神经网络的类

11、型很多,需要根据任务的性质和要求来选择合适的 网络类型。 3训练与测试:最后一步是利用获取的训练样本对网络进行反复训练,直至得 到合适的映射结果。 反馈神经网络反馈网络 (Recurrent Network) ,又称自联想记忆网络,其目的是为了设计 一个网络, 储存一组平衡点,使得当给网络一组初始值时,网络通过自行运行而最终收敛到 这个设计的平衡点上。反馈网络能够表现出非线性动力学系统的动态特性。它所具有的主 要特性 为以下两点: 第一、网络系统具有若干个稳定状态。当网络从某一初始状态开始运动, 网络系统总可以收敛到某一个稳定的平衡状态;第二,系统稳定的平衡状态可以通过设计网 络的权值而被存储

12、到网络中。 离散 Hopfield网络1. 网络的结构和工作方式离散 Hopfield 网络是一个 单层网络 ,有 个神经元节点,每个神经元的输出均接到其它神经元的输入。各节点没有自反馈,每个节 点都附有一个阀值。每个节点都可处于一种可能的状态(1 或 1) ,即当该神经元所受的刺 激超过其阀值时,神经元就处于一种状态(比如1) ,否则神经元就始终处于另一状态(比 如 1) 。 网络有两种工作方式:即串行方式和并行方式。2. 稳定性 :任何初始条件下稳定。 3. 连接权的设计4. 作用:联想记忆 连续 Hopfield网络连续 Hopfield 网络也是单层的反馈网络。其实质上 是一个 连续的

13、非 线性动力学系统,它可以用一组非线性微分方程来描述。当给定初始状态,通过求解非线 性微分方程组即可求得网络状态的运行轨迹。若系统是稳定的,则它最终可收敛到一个稳 定状态。作用:优化计算 Boltzmann机1. Boltzmann机网络结构和工作方式Boltzmann 机网络是一个相 互连接的神经网络模型,具有 对称的连接权系数,及wij wji且 wii=0 。网络由可见单元 (Visible Unit )和隐单元(Hidden Unit )构成。 2. 网络单元由输入、输出部分组成。每个 单元节点只取1 或 0 两种状态。 1 代表接通或接受,0 表示断开或拒绝。当神经元的输入加 权和发

14、生变化时,神经元的状态随之更新。各单元之间状态的更新是异步的。 与 Hopfield网络相似, Boltzmann机的实际运行也分为两个阶段:第一阶段 是学习和训练 阶段, 即根据学习样本对网络进行训练,将知识分布地存储于网络的连接权中;第二阶段 是 工作阶段, 即根据输入运行网络得到合适的输出,这一步实质上是按照某种机制将知识提取 出来。 2. 网络的学习和训练网络学习的目的是通过给出一组学习样本,经学习后得到 Boltzmann 机各种神经元之间的连接权wij . Boltzmann机网络学习的步骤可归纳如下:1). 随机设定网络的连接权wij(0) 及初始高温。 2). 按照已知的概率p

15、(x),依次给定学习样本。在样本的约束下,按照模拟退火程度运行 网络,直至达到平衡状态,统计出各pij。在无约束条件下,按同样的步骤并同样的次数运 行网络,统计出各pij 。 3). 按下述公式修改权值wij(k+1)=wij(k)+ (pij- pij), 0 4). 重复上述步骤,直到pij- p ij 小于一定的容限。 神经网络PID 控制尽管神经网络控制技术有许多潜在的优势,但单纯使用神经网络的控 制方法的研究仍有待进一步发展。通常将人工神经网络技术与传统的控制理论或智能技术综 合使用。神经网络在控制中的作用有以下几种:1 在传统的控制系统中用以动态系统建模, 充当对象模型;2在反馈控

16、制系统中直接充当控制器的作用;3在传统控制系统中起优 化计算作用;4与其他智能控制方法如模糊逻辑、遗传算法、专家控制等相融合。 基于 BP 神经网络控制参数自学习PID 控制BP 神经网络具有逼近任意非线性函数的 能力,而且结构和学习算法简单明确。通过神经网络自身的学习,可以找到某一最优控制 律下的 P,I,D 参数。基于BP 神经网络的PD 控制系统结构如图所示,控制器由两个部分 组成:经典的PID 控制器:直接对被控对象进行闭环控制,并且KP,KI,KD 三个参数为在 线整定;神经网络NN:根据系统的运行状态,调节PID 控制器的参数,以期达到某种性 能指标的最优化。即使输出层神经元的输出状态对应于PID 控制器的三个可调参数 KP,KI,KD ,通过神经网络的自学习、调整权系数,从而使其稳定状态对应于某种最优控制 律下的 PID 控制器参数。 基于 BP 神经网络的PID 控制算法可归纳如下:1). 事先选定BP 神经网络NN 的结构, 即选定输入层节点数M 和隐含层节点数Q,并给出权系数的初值w(2)ij(0), w(3)li(0) ,选定 学习

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 办公文档 > 心得体会

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号