人工神经网络算法(基础精讲)ppt课件

上传人:资****亨 文档编号:129485388 上传时间:2020-04-23 格式:PPT 页数:68 大小:1.31MB
返回 下载 相关 举报
人工神经网络算法(基础精讲)ppt课件_第1页
第1页 / 共68页
人工神经网络算法(基础精讲)ppt课件_第2页
第2页 / 共68页
人工神经网络算法(基础精讲)ppt课件_第3页
第3页 / 共68页
人工神经网络算法(基础精讲)ppt课件_第4页
第4页 / 共68页
人工神经网络算法(基础精讲)ppt课件_第5页
第5页 / 共68页
点击查看更多>>
资源描述

《人工神经网络算法(基础精讲)ppt课件》由会员分享,可在线阅读,更多相关《人工神经网络算法(基础精讲)ppt课件(68页珍藏版)》请在金锄头文库上搜索。

1、人工神经网络 二 一五年十二月 2 目录 3 一 人工神经网络的基本概念 4 一 人工神经网络的基本概念 人工神经网络 ArtificialNeuralNetwork 即ANN 可以概括的定义为 由大量具有适应性的处理元素 神经元 组成的广泛并行互联网络 它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应 是模拟人工智能的一条重要途径 人工神经网络与人脑相似性主要表现在 神经网络获取的知识是从外界环境学习得来的 各神经元的连接权 即突触权值 用于储存获取的知识 神经元是神经网络的基本处理单元 它是神经网络的设计基础 神经元是以生物的神经系统的神经细胞为基础的生物模型 在人们对生物神经系

2、统进行研究 以探讨人工智能的机制时 把神经元数学化 从而产生了神经元数学模型 因此 要了解人工神经模型就必须先了解生物神经元模型 5 1 1人工神经网络发展简史 最早的研究可以追溯到20世纪40年代 1943年 心理学家McCulloch和数学家Pitts合作提出了形式神经元的数学模型 这一模型一般被简称M P神经网络模型 至今仍在应用 可以说 人工神经网络的研究时代 就由此开始了 1949年 心理学家Hebb提出神经系统的学习规则 为神经网络的学习算法奠定了基础 现在 这个规则被称为Hebb规则 许多人工神经网络的学习还遵循这一规则 1957年 F Rosenblatt提出 感知器 Perc

3、eptron 模型 第一次把神经网络的研究从纯理论的探讨付诸工程实践 掀起了人工神经网络研究的第一次高潮 6 1 1人工神经网络发展简史 20世纪60年代以后 数字计算机的发展达到全盛时期 人们误以为数字计算机可以解决人工智能 专家系统 模式识别问题 而放松了对 感知器 的研究 于是 从20世纪60年代末期起 人工神经网络的研究进入了低潮 1982年 美国加州工学院物理学家Hopfield提出了离散的神经网络模型 标志着神经网络的研究又进入了一个新高潮 1984年 Hopfield又提出连续神经网络模型 开拓了计算机应用神经网络的新途径 1986年 Rumelhart和Meclelland提出

4、多层网络的误差反传 backpropagation 学习算法 简称BP算法 BP算法是目前最为重要 应用最广的人工神经网络算法之一 7 1 2生物神经元结构 生物神经元结构 1 细胞体 细胞核 细胞质和细胞膜 2 树突 胞体短而多分枝的突起 相当于神经元的输入端 3 轴突 胞体上最长枝的突起 也称神经纤维 端部有很多神经末稍传出神经冲动 1 2生物神经元结构 4 突触 神经元间的连接接口 每个神经元约有1万 10万个突触 神经元通过其轴突的神经末稍 经突触与另一神经元的树突联接 实现信息的传递 由于突触的信息传递特性是可变的 形成了神经元间联接的柔性 称为结构的可塑性 突触结构示意图 9 1

5、3生物神经元的信息处理机理 神经元的兴奋与抑制当传入神经元冲动 经整和使细胞膜电位升高 超过动作电位的阈值时 为兴奋状态 产生神经冲动 由轴突经神经末稍传出 当传入神经元的冲动 经整和 使细胞膜电位降低 低于阈值时 为抑制状态 不产生神经冲动 生物神经元的特点 生物神经元的特点 1 4生物神经元的特点 11 1 5人工神经元模型 神经元模型从神经元的特性和功能可以知道 神经元相当于一个多输入单输出的信息处理单元 而且 它对信息的处理是非线性的 人工神经元的模型如图所示 神经元的n个输入 对应的连接权值 net 阈值 输出 激活函数 12 上面的神经元模型可以用一个数学表达式进行抽象与概括 从而

6、得到神经元的数学模型 1 5人工神经元模型 神经元的网络输入记为net 即net 13 有时为了方便起见 常把 也看成是恒等于1的输入X0的权值 这时上面的数学模型可以写成 1 5人工神经元模型 其中 W0 x0 1 14 神经元的模型具有以下特点 神经元是一个多输入 单输出单元 它具有非线性的输入 输出特性 它具有可塑性 反应在新突触的产生和现有的神经突触的调整上 其塑性变化的部分主要是权值w的变化 这相当于生物神经元的突出部分的变化 对于激发状态 w取正直 对于抑制状态 w取负值 神经元的输出和响应是个输入值的综合作用的结果 兴奋和抑制状态 当细胞膜电位升高超过阈值时 细胞进入兴奋状态 产

7、生神经冲动 当膜电位低于阈值时 细胞进入抑制状态 1 5人工神经元模型 15 1 6激活函数 神经元的描述有多种 其区别在于采用了不同的激活函数 不同的激活函数决定神经元的不同输出特性 常用的激活函数有如下几种类型 16 1 阈值型激活函数阈值型激活函数是最简单的 前面提到的M P模型就属于这一类 其输出状态取二值 1 0或 1 1 分别代表神经元的兴奋和抑制 1 6激活函数 当f x 取0或1时 17 当f x 取1或 1时 f x 为下图所示的sgn 符号 函数sgn x 1 6激活函数 18 1 6激活函数 2 S型激活函数神经元的状态与输入级之间的关系是在 0 1 内连续取值的单调可微

8、函数 称为S型函数 双极性S型函数 单极性S型函数 19 3 分段线性激活函数分段线性激活函数的定义为 1 6激活函数 20 4 概率型激活函数概率型激活函数的神经元模型输入和输出的关系是不确定的 需要一种随机函数来描述输出状态为1或为0的概率 设神经元输出 状态 为1的概率为 1 6激活函数 其中 T为温度函数 21 激活函数的基本作用表现在 1 6激活函数 控制输入对输出的激活作用 将可能无限域的输入变换成指定的有限范围内的输出 对输入 输出进行函数转换 22 神经网络是由许多神经元互相在一起所组成的神经结构 把神经元之间相互作用关系进行数学模型化就可以得到人工神经网络模型 神经元和神经网

9、络的关系是元素与整体的关系 人工神经网络中的神经元常称为节点或处理单元 每个节点均具有相同的结构 其动作在时间和空间上均同步 1 7人工神经网络模型 人工神经网络模型 23 人工神经网络的基本属性 1 7人工神经网络模型 24 神经网络模型神经元的连接方式不同 网络的拓扑结构也不同 人工神经网络的拓扑结构是决定人工神经网络特征的第二要素 根据神经元之间连接的拓扑结构不同 可将人工神经网络分成两类 即分层网络和相互连接型网络 1 7人工神经网络模型 25 分层网络分层网络将一个神经网络中的所有神经元按功能分为若干层 一般有输入层 中间层 隐藏层 和输出层 分层网络按照信息的传递方向可分为前向式网

10、络 如图a 和反馈网络 如图b c 1 7人工神经网络模型 26 相互连接型网络相互连接型网络是指网络中任意单元之间都是可以相互双向连接的 1 7人工神经网络模型 上述的分类方法是对目前常见的神经网络结构的概括和抽象 实际应用的神经网络可能同时兼有其中的一种或几种形式 27 二 人工神经网络的学习方法 28 2 1学习机理 学习机理人工神经网络信息处理可以用数学过程来说明 这个过程可以分为两个阶段 执行阶段和学习阶段 学习是智能的基本特征之一 人工神经网络最具有吸引力的特点是它能从环境中学习的能力 并通过改变权值达到预期的目的 神经网络通过施加于它的权值和阈值调节的交互过程来学习它的环境 人工

11、神经网络具有近似于与人类的学习能力 是其关键的方面之一 29 2 2学习方法 学习方法按照广泛采用的分类方法 可以将神经网络的学习方法归为三类 无导师学习 灌输式学习 有导师学习 30 2 2学习方法 有导师学习有导师学习又称为有监督学习 在学习时需要给出导师信号或称为期望输出 神经网络对外部环境是未知的 但可以将导师看做对外部环境的了解 由输入 输出样本集合来表示 导师信号或期望响应代表了神经网络执行情况的最佳效果 即对于网络输入调整权值 使得网络输出逼近导师信号或期望输出 31 2 2学习方法 无导师学习无导师学习也称无监督学习 在学习过程中 需要不断地给网络提供动态输入信息 学习样本 而

12、不提供理想的输出 网络根据特有的学习规则 在输入信息流中发现任何可能存在的模式和规律 同时能根据网络的功能和输入调整权值 灌输式学习灌输式学习是指将网络设计成记忆特别的例子 以后当给定有关该例子的输入信息时 例子便被回忆起来 灌输式学习中网络的权值不是通过训练逐渐形成的 而是通过某种设计方法得到的 权值一旦设计好 即一次性 灌输给神经网络不再变动 因此网络对权值的 学习 是 死记硬背 式的 而不是训练式的 2 3学习规则 学习规则在神经网络的学习中 各神经元的连接权值需按一定的规则调整 这种权值调整规则称为学习规则 下面介绍几种常见的学习规则 33 2 3学习规则 1 Hebb学习规则当神经元

13、i与神经元j同时处于兴奋状态时 在神经网络中表现为连接权增加 根据该假设定义权值调整的方法 称为Hebb学习规则 Hebb学习规则的数学描述 假设oi n 和oj n 是神经元i和j在时刻n的状态反应 Wij n 表示时刻n时 连接神经元i和神经元j的权值 Wij n 表示从时刻n到时刻n 1时连接神经元i和神经元j权值的改变量 则 其中 是正常数 它决定了在学习过程中从一个步骤到另一个步骤的学习速率 称为学习效率 34 2 3学习规则 2 Delta 学习规则Delta学习规则是最常用的学习规则 其要点是通过改变神经元之间的连接权来减小系统实际输出与理想输出的误差 假设n时刻输出误差准则函数

14、如下 其中 Ok f netk 为实际输出 yk代表理想输出 W是网络的所有权值组成权矩阵W wij K为输出个数 使用梯度下降法调整权值W 使误差准则函数最小 得到W的修正Delta规则为 注 Delta学习规则只适用于线性可分函数 无法用于多层网络 35 2 3学习规则 3 LMS学习规则LMS学习规则又称为最小均方差规则 其学习规则为 注 LMS学习规则可以看成是Delta学习规则的一个特殊情况 该学习规则具有学习速度快和精度高的特点 权值可以初始化为任何值 36 2 3学习规则 4 胜者为王学习规则胜者为王 Winner Take All 学习规则是一种竞争学习规则 用于无导师学习 一

15、般将网络的某一层确定为竞争层 对于一个特定的输入X 竞争层的K个神经元均有输出响应 其中响应值最大的神经元j 为竞争中获胜的神经元 即 只有获胜的神经元才有权调整其权向量Wj 调整量为 其中 为学习参数 0 1 37 2 3学习规则 5 Kohonen学习规则该规则只用于无导师指导下训练的网络 在学习过程中 处理单元竞争学习时 具有高输出的单元为胜利者 它有能力阻止它的竞争者并激活相邻的单元 只有胜利者才能有输出 也只有胜利者与其相邻单元可以调节权重 在训练周期内 相邻单元的规模是可变的 一般的方法是从定义较大的相邻单元开始 在训练过程中不断减少相邻的范围 胜利单元可定义为与输入模式最为接近的

16、单元 Kohonen网络可以模拟输入的分配 38 2 3学习规则 5 概率式学习从统计学 分子热力学和概率论中关于系统稳态能量的标准出发 进行神经网络学习的方式称为概率是学习 神经网络处于某一状态的概率主要取决于在此状态下的能量 能量越低 概率越大 概率式学习的典型代表是玻尔兹曼 Boltzmann 机学习规则 这是基于模拟退火的统计优化算法 39 三 前向式神经网络与算法 3 1感知器及算法 感知器感知器是具有单层计算单元的神经网络 由线性元件和阈值元件组成 感知器的结构如下图所示 其中X x1 x2 xn 为n个输入 有m个输出 即O o1 o2 om W wij n m为连接权矩阵 wij n m为连接权矩阵 感知器结构 3 1感知器及算法 感知器的数学模型 3 1感知器及算法 感知器学习是有导师学习 感知器的训练算法来源于Hebb学习规则 其基本思想是 逐步地将样本集中的样本输入到网络中 根据输出结果和理想输出之间的差别来调整网络中的权矩阵 设网络的输入向量为X x1 x2 xn W wji 为网络的连接权矩阵 网络的训练样本集为 X Y 丨X为输入向量 Y为X对应的输出 下面

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 高等教育 > 大学课件

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号