神经网络——BP算法讲解

上传人:我** 文档编号:116767048 上传时间:2019-11-17 格式:PPT 页数:79 大小:3.99MB
返回 下载 相关 举报
神经网络——BP算法讲解_第1页
第1页 / 共79页
神经网络——BP算法讲解_第2页
第2页 / 共79页
神经网络——BP算法讲解_第3页
第3页 / 共79页
神经网络——BP算法讲解_第4页
第4页 / 共79页
神经网络——BP算法讲解_第5页
第5页 / 共79页
点击查看更多>>
资源描述

《神经网络——BP算法讲解》由会员分享,可在线阅读,更多相关《神经网络——BP算法讲解(79页珍藏版)》请在金锄头文库上搜索。

1、第7章 7.2 典型神经网络-BP 反向传播网络 BackPropagation Network ,由于其权值的调整采用反向传 播(Backpropagation)的学习算 法,因此被称为BP网络。 BP网络 是一种单向传播的多层前向网 络 其神经元的变换函数是S型函数 ,因此输出量为0到1之间的连 续量 它可以对非线性可微分函数进 行权值训练,从而实现输入到 输出的任意的非线性映射。 网络中心思想是梯度下降 法 通过梯度搜索技术,使网 络实际输出值与期望输出值 的误差均方值最小。 网络的学习过程是一种误差 边向后传播边修正权系数的 过程 7.2.2 BP网络结构 BP神经网络模型结构 输入层

2、隐层输出层 输 入 输 出 BP网络是一种多层前向神经网络 v一般分三层:输入层,隐层,输出层,也可以 有2层或更多个隐层。 v层与层之间采用全互联方式,同一层单元之 间不存在相互连接。 1)输入层单元无转换函数,直接接收信号传给下 一层,所以有些书不认为输入层是一个网络层。 2)在一般情况下,均是在隐含层采用 S 型激活 函数,而输出层采用线性激活函数。 x1 x2 xn y1 yp 只有当希望对网 络的输出进行限 制,如限制在0和 1之间,那么则在 输出层包含 S 型 激活函数 BP网络特点 是多层网络,包括输入层、隐层和输出 层 层与层之间采用全互连方式,同一层神 经元之间不连接 权值通

3、过学习算法进行调节 神经元激发函数为S函数 层与层的连接是单向的,信息传播是双 向的 感知机网络利用输出误差只能 修改最后一层的权值 而BP网络实现了多层学习,每一 层的权值均可训练学习修改。 BP学习规则 BP算法属于算法,是一 种监督式的学习算法。 其主要思想为: 对于q个输入学习样本: P1,P2,Pq, 已知与其对应的输出样本为: T1,T2,Tq。 学习的目的: 是用网络的实际输出A1,A2,Aq与目 标矢量T1,T2,Tq之间的误差来修改其 权值 使Al (ll,2,q)与期望的Tl尽可能地接近; 即: 使网络输出层的误差平方和达到最小。 BP算法的学习过程由 正向传播和反向传播组

4、成 BP算法是由两部分组成:信息 的正向传递与误差的反向传播 。 在正向传播过程中,输入信 息从输入经隐含层逐层计算传 向输出层,每一层神经元的状 态只影响下一层神经元的状态 。 如果在输出层没有得到期望 的输出,则计算输出层的误 差变化值,然后转向反向传 播,通过网络将误差信号沿 原来的连接通路反传回来修 改各层神经元的权值直至达 到期望目标。 BP网络用途 1)函数逼近:用输入矢量和相应的输出矢 量训练一个网络逼近个函数; 2)模式识别:用一个特定的输出矢量将它 与输入矢量联系起来; 3)分类:把输入矢量以所定义的合适方式 进行分类; 4)数据压缩:减少输出矢量维数以便于传 输或存储。 B

5、P网络的逼近 用于逼近的BP网络 前向传播:计算网络输出 输出层输出 隐层输出采用S函数 隐层输入: BP网络逼近仿真 Chap7_1.m 设计的网络结构为2-6-1; 权值w1,w2的初值取-1,+1之间的随机值, 取 初始化 加输入和期望输出 计算隐层和输出层的输出 迭代次数加1 调节输出层和隐层的连接权值 改变训练样板 训练样终止? 迭代终止? BP算法的基本流程 No No y y BP网络模式识别 一、 由于神经网络具有自学习、自组织和并行处 理等特征,并具有很强的容错能力和联想能 力,因此,神经网络具有模式识别能力。 在神经网络识别中,根据标准的输入输出模 式对,采用神经网络学习算

6、法,以标准的模 式作为学习样本进行训练,通过学习调整神 经网络的连接权值。 当训练满足要求后,得到知识库,利用神经 网络并行推理算法便可对所需的输入模式进 行识别。 BP网络的训练过程 为了训练一个BP网络,需要计算网络加权 输入矢量以及网络输出和误差矢量,然后求 得误差平方和。 当所训练矢量的误差平方和小于误差目标 ,训练则停止,否则在输出层计算误差变化 ,且采用反向传播学习规则来调整权值,并 重复此过程。 当网络完成训练后,对网络输入一个不是 训练集合中的矢量,网络将给出输出结果。 为了能够较好地掌握BP网络的训练 过程,我们再用两层网络为例来叙述BP 网络的训练步骤。 1)用小的随机数对

7、每一层的权值W初始化 ,以保证网络不被大的加权输入饱和; 2)计算网络各层输出矢量A1和A2以及网 络误差E 3)计算各层反传的误差变化并计算各层权 值的修正值以及新权值 4)再次计算权值修正后误差平方和: 5)检查误差是否小于给定误差,若是,训 练结束;否则继续。 以上所有的学习规则与训练的全过程,仍然可以用 函数trainbp.m来完成。它的使用同样只需要定义 有关参数:显示间隔次数,最大循环次数,目标误 差,以及学习速率,而调用后返回训练后权值,循 环总数和最终误差: TPdisp_freq max_epoch err_goal 1r; W,B,epochs,errorstrainbp(

8、W,B,F ,P,T,TP); 基于BP算法的多层前馈网络用图像压缩编码 Ackley和Hinton等人1985年提出了利用多层前馈神 经网络的模式变换能力实现数据编码的基本思想 。 其原理是,把一组输入模式通过少量的隐层节点 映射到一组输出模式,并使输出模式等同于输入 模式。当中间隐层的节点数比输入模式维数少时 ,就意味着隐层能更有效的表现输入模式,并把 这种表现传给输出层。在这个过程中,输入层和 隐层的变换可以看成是压缩编码的过程;而隐层 和输出层的变换可以看成是解码过程。 用多层前馈网实现图像数据压缩时,只需一个隐层,如图 原图像 n n 重建图像 n n 输入层和输出层均含有n*n个神

9、经元,每个神经元 对应于n*n图像分块中的一个像素。隐层神经元的 数量由图像压缩比决定,如n=16时,取隐层神经 元数为m=8,则可将 256像素的图像块压缩为 像素。 通过调整权值使训练集图像的重建误差达到最小 。训练后的网络就可以用来执行图像的数据压缩 任务了,此时隐层输出向量便是数据压缩结果, 而输出层的输出向量便是图像重建的结果。 黑白图像的边缘检测: 分析BP网络结构特点: 1. BP网络具有一层或多层 隐含层,与其他网络模型除 了结构不同外,主要差别表 现在激活函数上。 BP网络的设计 2. BP网络的激活函数必须 是处处可微的,所以它就不 能采用二值型的阀值函数0 ,1或符号函数

10、1,1, BP网络经常使用的是S型的 对数或正切激活函数和线性 函数。 3. 只有当希望对网络的输出 进行限制,如限制在0和1之 间,那么在输出层应当包含 S型激活函数,在一般情况 下,均是在隐含层采用S型 激活函数,而输出层采用线 性激活函数。 4、输入和输出是并行的模拟 量; 5、网络的输入输出关系是各 层连接的权因子决定,没有 固定的算法; 6、权因子是通过学习信号调 节的,这样学习越多,网络 越聪明; 7、隐含层越多,网络输出精 度越高,且个别权因子的损 坏不会对网络输出产生大的 影响 BP网络的设计 1 网络的层数: 理论上已经证明:具有偏差和至少一个S型 隐含层加上一个线性输出层的

11、网络,能够逼近 任何有理函数。 增加层数主要可以更进一步的降低误差, 提高精度,但同时也使网络复杂化,从而增加 了网络权值的训练时间。 一般情况下,应优先考虑增加隐含层中的 神经元数。 能不能仅用具有非线性激活函数的单层网 络来解决问题呢?结论是:没有必要或效果不 好。 2 隐含层的神经元数 网络训练精度的提高,可以通过采 用一个隐含层,而增加其神经元数的方 法来获得。这在结构实现上,要比增加 更多的隐含层要简单得多。 在具体设计时,比较实际的做法是 通过对不同神经元数进行训练对比,然 后适当地加上一点余量。 3)初始权值的选取 一般取初始权值在(-1,1)之间的随机数。 在MATLAB工具箱

12、中可采用函数initff.m来初始 化权值阈值。 由于每次训练时都对权值进行随机初始化,所 以每次训练得到的网络权值都是不一样的。 4 学习速率 学习速率决定每一次循环训练中所产 生的权值变化量。 大的学习速率可能导致系统的不稳定 。 小的学习速率导致较长的训练时间, 可能收敛很慢,不过能保证网络的误差 值不跳出误差表面的低谷而最终趋于最 小误差值。 所以在一般情况下,倾向于选取较小 的学习速率以保证系统的稳定性。学习 速率的选取范围在00108之间。 5 期望误差的选取 在设计网络的训练过程中,期望误差值也 应当通过对比训练后确定一个合适的值。 这个所谓的“合适”,是相对于所需要的隐 含层的

13、节点数来确定,因为较小的期望误差 值是要靠增加隐含层的节点,以及训练时间 来获得的。 一般情况下,作为对比,可以同时对两个 不同期望误差值的网络进行训练,最后通过 综合因素的考虑来确定采用其中一个网络。 BP网络的局限与不足 (1)需要较长的训练时间 因为涉及到求导的运算,需要的时间较长 (2)训练瘫痪问题 通常为了避免这种现象的发生,一是选取较小的 初始权值,二是采用较小的学习速率,但这又增 加了训练时间。 (3)局部极小值 BP算法可以使网络权值收敛到一个解,但它 并不能保证所求为误差超平面的全局最小解 ,很可能是一个局部极小解。 W E W初始值不合适时, 可能落入局部极小值 。 7.2

14、.11 反向传播法的改进方法 目标:为了加快训练速度,避免陷入局部极小 值。 1 附加动量法 附加动量法使网络在修正其权值时,不仅考虑误 差在梯度上的作用,而且考虑在误差曲面上变 化趋势的影响,其作用如同一个低通滤波器, 它允许网络忽略网络上的微小变化特性。 利用附加动量的作用则有可能滑过局部极小值。 该方法是在反向传播法的基础上在每一个权 值的变化上加上一项正比于前次权值变化量的 值,并根据反向传播法来产生新的权值变化。 附加动量法的实质是将最后一次权值变化的 影响,通过一个动量因子来传递。当动量因子 取值为零时,权值的变化仅是根据梯度下降法 产生;当动量因子取值为1时,新的权值变化 则是设

15、置为最后一次权值的变化,而依梯度法 产生的变化部分则被忽略掉了。 2 误差函数的改进 包穆(Baum)等人于1988年提出一种误差函数为: 不会产生不能完全训练的瘫痪现象。 3 自适应学习速率 学习率也称步长,在标准BP 算法中定为常数 ,然而在实际应用中,很难确定一个从始至终 都合适的最佳学习率,从误差曲面可以看出, 平坦区域内太小会使训练次数增加而希望增大 值;而在误差变化剧烈的区域,太大会因调 整量过大而跨过较宰的“坑凹”处,使训练出现 振荡,反而使迭代次数增加。 为了加速收敛过程,一个较好的思路是自适应 改变学习率,使其该大时增大,该小时减小。 通常调节学习速率的准则是:检查权值的 修

16、正值是否真正降低了误差函数,如果确实 如此,则说明所选取的学习速率值小了,可 以对其增加一个量;若不是这样,而产生了 过调,那么就应该减小学习速率的值。下式 给出了一种自适应学习速率的调整公式: MATLAB工具箱中带有自适应学习速率进行反向传播训 练的函数为:trainbpa.m。它可以训练直至三层网络。 使用方法为: W,B,epochs,TEtrainbpa(W,B,F,P,T, TP) 可以将动量法和自适应学习速率结合起来以利用 两方面的优点。这个技术已编入了函数 trainbpx.m之中。这个函数的调用和其他函数一 样,只是需要更多的初始参数而已: TPdisp_freq max_epoch error_goal lr 1r_inc 1r_dec mom_const err_ratio; W,B,epochs,error; lrtrainbpx(W,B, F,P,T,TP) 本章小结

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 高等教育 > 大学课件

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号