04神经网络控制

上传人:杰猫 文档编号:120570359 上传时间:2020-02-07 格式:PPT 页数:139 大小:1.77MB
返回 下载 相关 举报
04神经网络控制_第1页
第1页 / 共139页
04神经网络控制_第2页
第2页 / 共139页
04神经网络控制_第3页
第3页 / 共139页
04神经网络控制_第4页
第4页 / 共139页
04神经网络控制_第5页
第5页 / 共139页
点击查看更多>>
资源描述

《04神经网络控制》由会员分享,可在线阅读,更多相关《04神经网络控制(139页珍藏版)》请在金锄头文库上搜索。

1、第四章神经网络控制 黄福珍Huangfzhshiep edu 主要内容 神经网络的基本概念前向网络及其主要算法反馈网络支持向量机神经网络控制Matlab神经网络工具箱 4 1神经网络的基本概念 什么是神经网络神经网络的基本特征神经网络的发展简史神经网络的结构神经网络的学习方法 4 1 1什么是神经网络 神经网络是指模拟人脑神经系统的结构和功能 运用大量的处理部件 由人工方式构成的非线性动力学网络系统神经网络从两个方面上模拟大脑 神经网络获取的知识是从外界环境中学习得来的 内部神经元的连接强度 即突触权值 用于储存获取的知识学习算法是用于完成学习过程的程序 其功能是以有序的方式改变系统权值以获得

2、想要的设计目标 突触权值的修改提供了神经网络的一种设计方法 4 1 2神经网络的基本特征 并行分布处理非线性映射通过训练进行学习适应与集成硬件实现 4 1 3神经网络的发展简史 初始发展期 20世纪40年代 60年代 1943年McCulloch 心理学家 和Pitts 数理逻辑学家 发表文章 提出M P模型 M P模型能完成一定的逻辑运算 标志神经计算时代的开始 1949年DonalaU Hebb 心理学家 论著 TheOrganizationofBehavior 行为自组织 提出突触联系强度可变的假设 认为学习的过程最终发生在神经元之间的突触部位 突触的联系强度随着突触前后神经元的活动而变

3、化 Hebb规则 若两个神经元输出兴奋 则它们之间的连接权加强 反之减少 4 1 3神经网络的发展简史 初始发展期 20世纪40年代 60年代 1957年FrankRosenblatt定义了一个神经网络结构 称为感知器 Perceptron 第一次把神经网络研究从纯理论的探讨推向工程实现 在IBM704计算机上进行了模拟 证明了该模型有能力通过调整权的学习达到正确分类的结果 掀起了神经网络研究高潮 1962年电机工程师Window和Hoff提出自适应线性元件Adaline 它是一个连续取值的线性网络 4 1 3神经网络的发展简史 低谷期 20世纪60年代末 70年代末 1969年M Minsk

4、y和S Papert发表 Perceptrons 的论著 指出感知器仅能解决一阶谓词逻辑 只能做线性划分 对于非线性或其他分类会遇到很大困难 一个简单的XOR问题的例子就证明了这一点 神经网络研究一度达到低潮 原因还有 计算机不够发达 VLSI还没出现 而人工智能和专家系统正处于发展高潮 仍有不少学者致力于NN的研究 如Grossberg和Carpenter提出自适应共振理论ART网络 Kohonen提出自组织映射网络等 4 1 3神经网络的发展简史 兴盛期 20世纪80年代 90年代初 1982年JohnJ Hopfield 物理学家 提出了全联接网络 离散的神经网络模型 全新的具有完整理论

5、基础的神经网络模型 基本思想是对于一个给定的神经网络 对于一个能量函数 这个能量函数是正比于每一个神经元的活动值和神经元之间的联接权 而活动值的改变算法是向能量函数减少的方向进行 一直达到一个极小值为止 证明了网络可达到稳定的离散和连续两种情况 3年后AT T等做出了半导体芯片 神经网络复兴时期开始 4 1 3神经网络的发展简史 兴盛期 20世纪80年代 90年代初 1986年美国的一个平行计算研究小组提出了前向反馈神经网络的BackPropagation BP 学习算法 成为当今应用最广泛的方法之一 该方法克服了感知器非线性不可分类问题 给神经网络研究带来了新的希望 1990年汉森 L K

6、Hansen 和萨拉蒙 P Salamon 提出了神经网络集成 neuralnetworkensemble 方法 他们证明 可以简单地通过训练多个神经网络并将其结果进行拟合 显著地提高神经网络系统的泛化能力 神经网络集成可以定义为用有限个神经网络对同一个问题进行学习 集成在某输入示例下的输出由构成集成的各神经网络在该示例下的输出共同决定 4 1 3神经网络的发展简史 再认识与应用研究阶段 1991年以后 问题 1 应用面还不够宽2 结果不够精确3 存在可信度的问题 研究 1 开发现有模型的应用 并在应用中根据实际运行情况对模型 算法加以改造 以提高网络的训练速度和运行的准确度2 充分发挥两种技

7、术各自的优势是一个有效方法3 希望在理论上寻找新的突破 建立新的专用 通用模型和算法4 进一步研究生物神经系统 不断丰富对人脑的认识 4 1 4神经网络的结构 生物神经元模型 4 1 4神经网络的结构 人工神经元模型 输入信号 连接权 阈值 处理单元净值 转移函数 输出 4 1 4神经网络的结构 人工神经元输入与输出之间的关系 转换函数的作用 控制输入对输出的激活作用 对输入 输出进行函数转换 将可能无限域的输入转换成指定的有限范围内的输出 4 1 4神经网络的结构 几种常见的转换函数 阈值型 线性型 双曲函数 S型 Sigmoid 高斯型 4 1 4神经网络的结构 4 1 4神经网络的结构

8、人工神经网络的结构类型 前馈型神经网络 Feedforward 神经元分层排列 可有多层 每层神经元只接受前层神经元的输入 同层神经元之间无连接 4 1 4神经网络的结构 人工神经网络的结构类型 反馈型神经网络 Feedback 全反馈型 内部前向 输出反馈到输入 Innerrecurrent 层间元相互连接 4 1 5神经网络的学习方法 人工神经网络的学习方式 有监督学习 需要有个教师提供期望或目标输出信号 系统根据期望的和实际的网络输出间的差来调整神经元连接的权值 4 1 5神经网络的学习方法 人工神经网络的学习方式 无监督学习 不需要知道期望输出 在训练过程中 只要向神经网络提供输入模式

9、 神经网络就能够自动地适应连接权 4 1 5神经网络的学习方法 人工神经网络的学习方式 强化学习 不需要给出目标输出 它采用一个评论员来评价与给定输入相对应的神经网络输出的优度 4 1 5神经网络的学习方法 人工神经网络的学习算法 Hebb学习规则 如果两个神经元同时兴奋 即同时被激活 则它们之间的突触连接加强 Hebb学习规则是一种无监督的学习规则 常用于自组织网络或特征提取网络 4 1 5神经网络的学习方法 人工神经网络的学习算法 Delta学习规则 用已知样本作为教师对网络进行学习 学习规则可由二次误差函数的梯度法导出 误差校正学习规则实际上是一种梯度方法 4 1 5神经网络的学习方法

10、人工神经网络的学习算法 概率型学习 神经网络处于某一状态的概率主要取决于在此状态下的能量 能量越低 概率越大 该概率还取决于温度系数T T越大 不同状态出现概率的差异便越小 较容易跳出能量的局部极小点 4 1 5神经网络的学习方法 人工神经网络的学习算法 竞争式学习 在竞争学习时网络各输出单元相互竞争 最后只有最强者激活 4 2前向网络及其主要算法 感知器模型BP网络RBF网络 4 2 1感知器模型 感知器 Perceptron 模型结构 最简单的前向网络 由输入层和输出层两层构成 4 2 2感知器模型 感知器模型结构 不失一般性 可以假设输出层仅有一个神经元 4 2 1感知器模型 感知器的学

11、习算法 给 i 0 及阈值 分别赋予一个较小的非零随机数作为初值 输入一个样本X x1 x2 xn 和一个期望的输出d 计算网络的实际输出 按下式调整权值 学习规则 转第二步 直到 i对所有样本都稳定不变为止 4 2 1感知器模型 感知器的分类功能 若有P个输入样本 经过该感知器的输出yj只有两种可能 1或者 1 从而说明它将输入模式分成了两类 若将看成是n维空间的P个点 则该感知器将该P个点分成了两类 它们分属于n维空间的两个不同的部分 4 2 2感知器模型 感知器的分类功能 以二维空间为例 对于任一样本 x1 x2 感知器输出为 即分界线的方程为 x2 x1 4 2 1感知器模型 感知器模

12、型的局限性 只可解决线性可分问题的模式分类 对异或问题无能为力 对线性不可分问题的解决 采用多层感知器 可以证明 只要隐层和隐层单元数足够多 多层感知器网络可实现任何模式分类 但是 多层网络的权值如何确定 即网络如何进行学习 在感知器上没有得到解决 4 2 2BP网络 BP BackPropagation 网络结构 多层前馈神经网络 其神经元的变换函数是S型函数 权值的调整采用反向传播的学习算法 输出量是0到1之间的连续量 它可实现从输入到输出的任意的非线性映射 4 2 2BP网络 BP学习算法 属于Delta算法 是一种监督式的学习算法 主要思想 对于q个输入学习样本 P1 P2 Pq 已知

13、与其对应的输出样本为 T1 T2 Tq使网络输出层的误差平方和达到最小用网络的实际输出A1 A2 Aq 与目标矢量T1 T2 Tq之间的误差修改其权值 使Am与期望的Tm m l q 尽可能接近 4 2 2BP网络 BP学习算法 由两部分组成正向传播过程中 输入信息从输入层经隐含层逐层计算传向输出层 每一层神经元的状态只影响下一层神经元的状态如果在输出层未得到期望的输出 则计算输出层的误差变化值 然后转向反向传播 通过网络将误差信号沿原来的连接通路反传回来修改各层神经元的权值直至达到期望目标 4 2 2BP网络 BP学习算法推导 网络关于第p个样本的误差函数为 网络关于所有样本的误差函数为 权

14、值的调整是沿着误差的负梯度方向进行调整 即 对于输出层有 4 2 2BP网络 BP算法推导 因此输出层权值调整公式为 对于隐层 先考虑层 4 2 2BP网络 BP算法推导 依次类推 可求得第q层 则隐层的权值调整公式为 4 2 2BP网络 BP网络的优点 只要有足够多的隐层和隐节点 BP网络可以逼近任意的非线性映射关系 BP网络的学习算法属于全局逼近的方法 因而它具有较好的泛化能力BP网络的缺点 需要较长的训练时间 容易陷入局部极小值 网络结构难以确定 隐层和隐层节点数 4 2 2BP网络 BP算法的改进 引入动量项 4 2 2BP网络 BP算法的改进 变步长法 4 2 3RBF网络 径向基

15、RBF 网络的结构 具有单隐层的两层前向网络 隐单元的变换函数是径向基函数 4 2 3RBF网络 RBF网络的输入输出关系 4 2 3RBF网络 RBF网络的学习算法 无教师学习阶段 4 2 3RBF网络 RBF网络的学习算法 有教师学习阶段 训练由隐层到输出层之间的权值 4 2 3RBF网络 RBF网络的特点 RBF网络神经元节点通常比BP网络多 训练时间远远低于BP网络 对于存在大量训练样本的情况 RBF网络的性能比较好 只要隐层节点数足够多 RBF可以映射任意非线性函数 求RBF网络隐节点的中心向量和标准化常数是一个困难的问题 如何选择合适的径向基函数以及如何确定隐节点数 目前还无法解决

16、 4 3反馈网络 Hopfield网络Boltzmann机网络自组织特征映射网络 4 3 1Hopfield网络 Hopfield网络结构 单层网络 共有n个神经元节点 每个节点输出均连接到其它神经元的输入 同时所有其它神经元的输出均连到该神经元的输入 4 3 1Hopfield网络 Hopfield网络的主要特点 网络是一个全连网络 即网络中任意两个单元之间都有连线 而且这种连接是对称的 即wij wji 网络有两种类型 离散和连续 离散是说单元是二值的 它们的激活是用 1 1 或 1 0 表示 而在连续的网络中 单元的激活是连续的 它们可以取0到1之间的任一实数值 4 3 1Hopfield网络 离散Hopfield网络 网络输入输出关系 4 3 1Hopfield网络 离散Hopfield网络 网络工作方式 异步方式 每次只有一个神经元节点进行状态的调整计算 其它节点的状态均保持不变 其调整次序可以随机选定 也可按规定的次序进行 同步方式 所有的神经元节点同时调整状态 4 3 1Hopfield网络 离散Hopfield网络 稳定性 如果系统是稳定的 则它可以从任一初态收敛到一个

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 大杂烩/其它

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号