人工神经网络 第3章 多层前向网络及bp学习算法讲义

上传人:今*** 文档编号:107875226 上传时间:2019-10-21 格式:PPT 页数:54 大小:7.25MB
返回 下载 相关 举报
人工神经网络 第3章 多层前向网络及bp学习算法讲义_第1页
第1页 / 共54页
人工神经网络 第3章 多层前向网络及bp学习算法讲义_第2页
第2页 / 共54页
人工神经网络 第3章 多层前向网络及bp学习算法讲义_第3页
第3页 / 共54页
人工神经网络 第3章 多层前向网络及bp学习算法讲义_第4页
第4页 / 共54页
人工神经网络 第3章 多层前向网络及bp学习算法讲义_第5页
第5页 / 共54页
点击查看更多>>
资源描述

《人工神经网络 第3章 多层前向网络及bp学习算法讲义》由会员分享,可在线阅读,更多相关《人工神经网络 第3章 多层前向网络及bp学习算法讲义(54页珍藏版)》请在金锄头文库上搜索。

1、合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,Artificial Neural Network 人工神经网络,协 同 形 成 结 构,竞 争 促 进 发 展,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,第3章 多层前向网络及BP学习算法,3.1多层感知器 3.2 BP学习算法 3.3 径向基网络 3.4 仿真实例,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,3.1多层感知器,单层感知器只能解决线性可分的分类问题,要增

2、强网络的分类能力唯一的方法是采用多层网络,即在输入与输出层之间加上隐含层,从而构成多层感知器(Multilayer Perceptrons,MLP)。这种由输入层、隐含层(一层或者多层)和输出层构成的神经网络称为多层前向神经网络。,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,多层感知器,多层前向神经网络输入层中的每个源节点的激励模式(输入向量)单元组成了应用于第二层(如第一隐层)中神经元(计算节点)的输入信号,第二层输出信号成为第三层的输入,其余层类似。网络每一层的神经元只含有作为它们输入前一层的输出信号,网络输出层(终止层)神经元的

3、输出信号组成了对网络中输入层(起始层)源节点产生的激励模式的全部响应。即信号从输入层输入,经隐层传给输出层,由输出层得到输出信号。,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,多层感知器,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,多层感知器,多层感知器同单层感知器相比具有四个明显的特点: (1)除了输入输出层,多层感知器含有一层或多层隐单元,隐单元从输入模式中提取更多有用的信息,使网络可以完成更复杂的任务。 (2)多层感知器中每个神经元的激励函数是可微的Sigmoid函数,

4、如:,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,多层感知器,(3)多层感知器的多个突触使得网络更具连通性,连接域的变化或连接权值的变化都会引起连通性的变化。 (4)多层感知器具有独特的学习算法,该学习算法就是著名的BP算法,所以多层感知器也常常被称之为BP网络。 多层感知器所具有的这些特点,使得它具有强大的计算能力。多层感知器是目前应用最为广泛的一种神经网络。,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,3.2 BP学习算法,反向传播算法(Back-Propagation

5、algorithm, BP) BP学习过程: (1)工作信号正向传播:输入信号从输入层经隐单元,传向输出层,在输出端产生输出信号,这是工作信号的正向传播。在信号的向前传递过程中网络的权值是固定不变的,每一层神经元的状态只影响下一层神经元的状态。如果在输出层不能得到期望的输出,则转入误差信号反向传播。,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,BP学习算法,(2)误差信号反向传播:网络的实际输出与期望输出之间差值即为误差信号,误差信号由输出端开始逐层向后传播,这是误差信号的反向传播。在误差信号反向传播的过程中,网络的权值由误差反馈进行

6、调节。通过权值的不断修正使网络的实际输出更接近期望输出。,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,神经元的输入用u表示,激励输出用v表示,u, v的上标表示层,下标表示层中的某个神经元,如 表示I层(即第1隐层)的第i个神经元的输入。设所有的神经元的激励函数均用Sigmoid函数。设训练样本集为X=X1,X2,Xk,,XN,对

7、应任一训练样本: Xk= xk1,xk2, kMT,(k=1,2,N)的实际输出为: Yk= yk1, yk2,ykPT,期望输出为dk= dk1,dk2, dkPT。设n为迭代次数,权值和实际输出是n的函数。,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,工作信号的正向传播过程:,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,输出层第p个神经元的误差信号为:,定义神经元p的误差能量为: 则输出层所有神经元的误差能量总和为:,合肥工业大学 计算机与信息学院 图像信息处理研究室 T

8、el:2901393 Email:images ,误差信号的反向传播过程:,(1)隐层J与输出层P之间的权值修正量,因为:,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,设局部梯度:,当激励函数为S型函数时有:,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,可求得:,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,(2)隐层I与隐层J之间的权值修正量:,设局部梯度为:,合肥工业大学 计算机与信息学院 图像信息处理研究室 Te

9、l:2901393 Email:images ,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,(3)与隐层I和隐层J之间的权值修正量推导方法相同,输入层M上任一节点与隐层I上任一节点之间权值的修正量为:,其中:,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,BP学习算法步骤,第一步:设置变量和参量 第二步:初始化,赋给WMI (0), WIJ (0), WJP (0),各一个较小的随机非零值 第三步:随机输入样本Xk ,n=0。 第四步:对输入样本Xk ,前向计算BP网络每层神经

10、元的输入信号u和输出信号v 第五步:由期望输出dk和上一步求得的实际输出 Yk (n)计算误差E(n),判断其是否满足要求,若满足转至第八步;不满足转至第六步。,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,BP学习算法步骤(续),第六步:判断n+1是否大于最大迭代次数,若大于转至第八步,若不大于,对输入样本Xk ,反向计算每层神经元的局部梯度 第七步:计算权值修正量,修正权值;n=n+1,转至第四步 第八步:判断是否学完所有的训练样本,是则结束,否则转至第三步。,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:290139

11、3 Email:images ,BP学习,需要注意几点:, BP学习时权值的初始值是很重要的。初始值过大,过小都会影响学习速度,因此权值的初始值应选为均匀分布的小数经验值,大概为(2.4/F,2.4/F)之间(也有人建议在 之间),其中F为所连单元的输入端个数。另外,为避免每一步权值的调整方向是同向的(即权值同时增加或同时减少),应将初始权值设为随机数。,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images , 神经元的激励函数是Sigmoid函数,如果Sigmoid函数的渐进值为+和,则期望输出只能趋于+和,而不能达到+和。为避免学习算法不收敛

12、,提高学习速度,应设期望输出为相应的小数,如逻辑函数其渐进值为1和0,此时应设相应的期望输出为0.99和0.01等小数,而不应设为1和0。,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images , 用BP算法训练网络时有两种方式,一种是顺序方式,即每输入一个训练样本修改一次权值;以上给出的BP算法步骤就是按顺序方式训练网络的。另一种是批处理方式,即待组成一个训练周期的全部样本都一次输入网络后,以总的平均误差能量Eav为学习目标函数修正权值的训练方式。 ekp为网络输入第k个训练样本时输出神经元p的误差,N为训练样本的个数。,合肥工业大学 计算机与

13、信息学院 图像信息处理研究室 Tel:2901393 Email:images , BP学习中,学习步长的选择比较重要。值大权值的变化就大,则BP学习的收敛速度就快,但是值过大会引起振荡即网络不稳定;小可以避免网络不稳定,但是收敛速度就慢了。要解决这一矛盾最简单的方法是加入“动量项” 。 要计算多层感知器的局部梯度,需要知道神经元的激励函数的导数。,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images , 在BP算法第五步需要判断误差E(n)是否满足要求,这里的要求是:对顺序方式,误差小于我们设定的值,即|E(n)|; 对批处理方式,每个训练周期

14、的平均误差Eav其变化量在0.1%到1%之间,我们就认为误差满足要求了。 在分类问题中,我们会碰到属于同一类的训练样本有几组,在第一步设置变量时,一般使同一类的训练样本其期望输出相同。,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,BP学习算法的改进,在实际应用中BP算法存在两个重要问题:收敛速度慢,目标函数存在局部极小点。 改善BP算法的一些主要的措施: (1) 加入动量项,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,本次修正量wij (n)是一系列加权指数序列的和。当动量常

15、数满足 ,序列收敛,当 上式不含动量项。 当本次的 与前一次同符号时,其加权求和值增大,使wij (n)较大,从而在稳定调节时加快了w的调节速度。 当 与前次符号相反时,指数加权求和结果使wij (n)减小了,起到了稳定作用。,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,(2) 尽可能使用顺序方式训练网络。顺序方式训练网络要比批处理方式更快,特别是在训练样本集很大,而且具有重复样本时,顺序方式的这一优点更为突出。值得一提的是,使用顺序方式训练网络以解决模式分类问题时,要求每一周期的训练样本其输入顺序是随机的,这样做是为了尽可能使连续输入的样本不属于同一类。,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,(3) 选用反对称函数作激励函数。当激励函数为反对称函数(即f (u) = f (u))时,BP算法的学习速度要快些。最常用的反对称函数是双曲正切函数: 一般取,,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,合肥工业大学 计算机与信息学院 图像信息处理研究室 Tel:2901393 Email:images ,(4) 规

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 高等教育 > 大学课件

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号