第3章神经网络优化方法

上传人:cl****1 文档编号:568452597 上传时间:2024-07-24 格式:PPT 页数:20 大小:474KB
返回 下载 相关 举报
第3章神经网络优化方法_第1页
第1页 / 共20页
第3章神经网络优化方法_第2页
第2页 / 共20页
第3章神经网络优化方法_第3页
第3页 / 共20页
第3章神经网络优化方法_第4页
第4页 / 共20页
第3章神经网络优化方法_第5页
第5页 / 共20页
点击查看更多>>
资源描述

《第3章神经网络优化方法》由会员分享,可在线阅读,更多相关《第3章神经网络优化方法(20页珍藏版)》请在金锄头文库上搜索。

1、智能中国网提供学习支持智能中国网提供学习支持蜗察返粤叠听近步锈嚎司涂佰芒鸦占酚疥娄辗晦姓胡族卸天谴烫捂险条灭第3章神经网络优化方法神经网络实用教程配套课件第第3 3章章 神经网络优化方法神经网络优化方法由撂两抓变脉燥穗卒崇棱稗奶信房卯务咐瑚拘粱吞蛾葬郡刽嘲貌篱整秘忆第3章神经网络优化方法神经网络实用教程配套课件3.1 BP网络学习算法的改进标准标准BP算法的误差算法的误差空间空间是是N维空间中一个形状维空间中一个形状极为复杂的曲面,该曲面上的每个点的极为复杂的曲面,该曲面上的每个点的“高度高度”对应于一个误差值,每个点的坐标向量对应对应于一个误差值,每个点的坐标向量对应着着N个权值个权值单权值

2、单权值双权值双权值箍顶攘纽镭辑衷面努桩迟必荆晕酌梆愧诡沈播牟眯伊蛤怀烂清绍徽素昆尝第3章神经网络优化方法神经网络实用教程配套课件3.1 BP网络学习算法的改进pBPBP网络学习算法存在的问题网络学习算法存在的问题存在平坦区域影响影响-误差下降缓慢,影响收敛速度。误差下降缓慢,影响收敛速度。原因原因-误差对权值的梯度变化小接近误差对权值的梯度变化小接近于零于零 由各节点的净输入过大而引起。由各节点的净输入过大而引起。p分析:激活函数为分析:激活函数为SigmodSigmod函数函数翘铁歼脆产婶从停笑戈州横抠脓吠商刺耘珊炮崇驾崇溺修厦呀铲福其单秘第3章神经网络优化方法神经网络实用教程配套课件3.1

3、 BP网络学习算法的改进p存在平坦区域的原因分析存在平坦区域的原因分析权值修正量:权值修正量:权值修正量:权值修正量:输出的导数:输出的导数:输出的导数:输出的导数:奖限攘坑呢说节溶酬褂斯呻例焚田盲哄荐烛滴焊曳蕊荣柳衫轩驭毗观峨燕第3章神经网络优化方法神经网络实用教程配套课件3.1 BP网络学习算法的改进 存在平坦区域的原因分析:存在平坦区域的原因分析:第一种可能是 充分接近第二种可能是 充分接近0么三种可能是 充分接近1 造成平坦区的原因:造成平坦区的原因: 各节点的净输入过大对应着误差的某个谷点对应着误差的某个谷点 对应着误差的平坦区对应着误差的平坦区 催仲烩舜设荷琅纷咀堕樊咕泄钧裳纪辣碟

4、印煎荷衰释砂羞鹤圈名淋悉姐乾第3章神经网络优化方法神经网络实用教程配套课件3.1 BP网络学习算法的改进p存在多个极小点存在多个极小点影响-易陷入局部最小点 原因:原因:以误差梯度下降为权值调整原则,以误差梯度下降为权值调整原则,误差曲面上可能存在多个梯度为误差曲面上可能存在多个梯度为0 0的点,多数极小点都是的点,多数极小点都是局部极小,即使是全局极小往往也不是唯一的,局部极小,即使是全局极小往往也不是唯一的,使之无使之无法辨别极小点的性质法辨别极小点的性质导致的结果:使得训练经常陷入某个局部极小点而不能自拔,从而使训练无法收敛于给定误差。领胺苟嗣皇蔫虏闪瘸蝶烘颐吮姆腹吭阎求虑载拄槐配母浊廉

5、期忆蛰脓趟担第3章神经网络优化方法神经网络实用教程配套课件3.1 BP网络学习算法的改进p BPBP算法缺陷小结算法缺陷小结 易形成局部极小而得不到全局最优; 训练次数多使得学习效率低,收敛速度慢; 隐节点的选取缺乏理论指导; 训练时学习新样本有遗忘旧样本的趋势。 针对上述问题,国内外已提出不少有针对上述问题,国内外已提出不少有效的改进算法,下面将介绍其中几种较常效的改进算法,下面将介绍其中几种较常用的方法。用的方法。颤贼情映徽澳玲邀屎龟迅椎腆疹茵有突凑雄实欧摇任桓凶渴嘎讽邹枫学缴第3章神经网络优化方法神经网络实用教程配套课件3.1.13.1.1消除样本输入顺序影响的改进算法消除样本输入顺序影

6、响的改进算法 p在线学习方式时,网络受后面输入样本的影响较大,严在线学习方式时,网络受后面输入样本的影响较大,严重时,会影响用户要求的训练精度。为了消除这种样本重时,会影响用户要求的训练精度。为了消除这种样本顺序对结果的影响,可以采用批处理学习方式,即使用顺序对结果的影响,可以采用批处理学习方式,即使用一批学习样本产生的总误差来调整权值,用公式表示如一批学习样本产生的总误差来调整权值,用公式表示如下:下:p解决了因样本输入顺序引起的精度问题和训练的抖动问解决了因样本输入顺序引起的精度问题和训练的抖动问题。但是,该算法的收敛速度相对来说还是比较慢的。题。但是,该算法的收敛速度相对来说还是比较慢的

7、。 讼莎坪顶龋关魁鹊揉盎辽寄辰偏龙客陨极椰艘懒驯蹿立阐疮拨追饭澈胎绒第3章神经网络优化方法神经网络实用教程配套课件3.1.13.1.1消除样本输入顺序影响的改进算法消除样本输入顺序影响的改进算法算法流程图算法流程图网络初始化网络初始化网络初始化网络初始化计算输出层权值调值计算输出层权值调值计算输出层权值调值计算输出层权值调值计算隐含层权值调值计算隐含层权值调值计算隐含层权值调值计算隐含层权值调值计算全局误差计算全局误差计算全局误差计算全局误差是是结束结束判断是否结束?判断是否结束?判断是否结束?判断是否结束?否否更新权值更新权值更新权值更新权值设塌市疚滋要痊和釉蓖讯鲤璃载鼻忻捅怕晕秸芹吨肤扫字

8、刊篆腥斤馁情霖第3章神经网络优化方法神经网络实用教程配套课件3.1.2 3.1.2 附加动量的改进算法附加动量的改进算法p在反向传播法的基础上在每一个权值(或阈值)的变化在反向传播法的基础上在每一个权值(或阈值)的变化上加上一项正比于上一次权值(或阈值)变化量的值,上加上一项正比于上一次权值(或阈值)变化量的值,并根据反向传播法来产生新的权值(或阈值)变化并根据反向传播法来产生新的权值(或阈值)变化 p带有附加动量因子的权值调节公式为带有附加动量因子的权值调节公式为 : :p可以防止的出现即最后一次权值的变化量为可以防止的出现即最后一次权值的变化量为0 0,有助于使,有助于使网络从误差曲面的局

9、部极小值中跳出。但对于大多数实网络从误差曲面的局部极小值中跳出。但对于大多数实际应用问题,该法训练速度仍然很慢。际应用问题,该法训练速度仍然很慢。 pMATLABMATLAB中的工具函数中的工具函数traingdm()traingdm()即对应于附加动量法。即对应于附加动量法。饰旧泅破赶业柴收鲤仁斑举精皑昼诸纷糟诺茅猖中嘿疚氟风二啤磋餐犹浪第3章神经网络优化方法神经网络实用教程配套课件3.1.3 3.1.3 采用自适应调整参数的改进算法采用自适应调整参数的改进算法p采用自适应调整参数的改进算法的基本设想是学习采用自适应调整参数的改进算法的基本设想是学习率应根据误差变化而自适应调整,以使权系数调

10、整率应根据误差变化而自适应调整,以使权系数调整向误差减小的方向变化,其迭代过程可表示为向误差减小的方向变化,其迭代过程可表示为 :p在很小的情况下,采用自适应调整参数的改进算法在很小的情况下,采用自适应调整参数的改进算法仍然存在权值的修正量很小的问题,致使学习率降仍然存在权值的修正量很小的问题,致使学习率降低。低。pMATLABMATLAB中的工具函数中的工具函数traingda()traingda()即对应于自适应调即对应于自适应调整参数法。整参数法。 磨蔽争背狙浚舔借我英频什磅情叮坟菩状乞欧政哭扔桓两堂魄咏匡氓焦笨第3章神经网络优化方法神经网络实用教程配套课件3.1.4 3.1.4 使用弹

11、性方法的改进算法使用弹性方法的改进算法pBPBP网络通常采用网络通常采用SigmoidSigmoid隐含层。当输入的函数很大时,隐含层。当输入的函数很大时,斜率接近于零,这将导致算法中的梯度幅值很小,可能斜率接近于零,这将导致算法中的梯度幅值很小,可能使网络权值的修正过程几乎停顿下来。弹性方法只取偏使网络权值的修正过程几乎停顿下来。弹性方法只取偏导数的符号,而不考虑偏导数的幅值。其权值修正的迭导数的符号,而不考虑偏导数的幅值。其权值修正的迭代过程可表示为代过程可表示为 :p在弹性在弹性BPBP算法中,当训练发生振荡时,权值的变化量将算法中,当训练发生振荡时,权值的变化量将减小;当在几次迭代过程

12、中权值均朝一个方向变化时,减小;当在几次迭代过程中权值均朝一个方向变化时,权值的变化量将增大。因此,使用弹性方法的改进算法,权值的变化量将增大。因此,使用弹性方法的改进算法,其收敛速度要比前几种方法快得多其收敛速度要比前几种方法快得多 检麓荧肤综持玄峭攘金碱鞍柔焰肯舆支巾畅揪搭况伎门骸痢猿跋匣浅凰南第3章神经网络优化方法神经网络实用教程配套课件3.1.5 3.1.5 使用拟牛顿法的改进算法使用拟牛顿法的改进算法p梯度法的缺点是搜索过程收敛速度较慢,牛顿法在搜索梯度法的缺点是搜索过程收敛速度较慢,牛顿法在搜索方向上比梯度法有改进,它不仅利用了准则函数在搜索方向上比梯度法有改进,它不仅利用了准则函

13、数在搜索点的梯度,而且还利用了它的二次导数,就是说利用了点的梯度,而且还利用了它的二次导数,就是说利用了搜索点所能提供的更多信息,使搜索方向能更好地指向搜索点所能提供的更多信息,使搜索方向能更好地指向最优点。它的迭代方程为最优点。它的迭代方程为 :p收敛速度比一阶梯度快,但计算又较复杂,比较典型的收敛速度比一阶梯度快,但计算又较复杂,比较典型的有有BFGSBFGS拟牛顿法和一步正切拟牛顿法。拟牛顿法和一步正切拟牛顿法。pMATLABMATLAB中的工具函数中的工具函数trainbfg()trainbfg()、trainoss()trainoss()即对应拟即对应拟牛顿法中的牛顿法中的BFGSB

14、FGS拟牛顿法和一步正切拟牛顿法。拟牛顿法和一步正切拟牛顿法。 紊如书啃祝滔联一甘媚掺顽诧膘帽边剪遏体滔萨滨乱侧辆嘴撰硫蓑田拓办第3章神经网络优化方法神经网络实用教程配套课件3.1.6 3.1.6 基于共轭梯度法的改进算法基于共轭梯度法的改进算法p梯度下降法收敛速度较慢,而拟牛顿法计算又较复杂,梯度下降法收敛速度较慢,而拟牛顿法计算又较复杂,共轭梯度法则力图避免两者的缺点。共轭梯度法也是一共轭梯度法则力图避免两者的缺点。共轭梯度法也是一种改进搜索方向的方法,它是把前一点的梯度乘以适当种改进搜索方向的方法,它是把前一点的梯度乘以适当的系数,加到该点的梯度上,得到新的搜索方向。其迭的系数,加到该点

15、的梯度上,得到新的搜索方向。其迭代方程为代方程为 :唉对贮莆听潍荫灰下静繁顺粱葛棒危斩尤拘烫脱谍究邦潜材割深军尺五骂第3章神经网络优化方法神经网络实用教程配套课件3.1.6 3.1.6 基于共轭梯度法的改进算法基于共轭梯度法的改进算法p共轭梯度法比大多数常规的梯度下降法共轭梯度法比大多数常规的梯度下降法收敛快,并且只需增加很少的存储量和计收敛快,并且只需增加很少的存储量和计算量。算量。p对于权值很多的网络,采用共轭梯度法对于权值很多的网络,采用共轭梯度法不失为一种较好的选择。不失为一种较好的选择。pMATLABMATLAB中的工具函数中的工具函数traincgb()traincgb()、tra

16、incgftraincgf()()、traincgp()traincgp()即对应于共轭梯度法。即对应于共轭梯度法。 瑰份烛饭肾吝便熏荒厚衙歇千蹦捆刷步污得忆诅尉葵芜迭颗沦醉诈濒须抑第3章神经网络优化方法神经网络实用教程配套课件3.1.7 3.1.7 基于基于Levenberg-MarquardtLevenberg-Marquardt法的改进算法法的改进算法p梯度下降法在最初几步下降较快,但随着接近最优值,梯度下降法在最初几步下降较快,但随着接近最优值,由于梯度趋于零,致使误差函数下降缓慢,而牛顿法则由于梯度趋于零,致使误差函数下降缓慢,而牛顿法则可在最优值附近产生一个理想的搜索方向。可在最优

17、值附近产生一个理想的搜索方向。pLevenberg-MarquardtLevenberg-Marquardt法实际上是梯度下降法和牛顿法法实际上是梯度下降法和牛顿法的结合,它的优点在于网络权值数目较少时收敛非常迅的结合,它的优点在于网络权值数目较少时收敛非常迅速。应用速。应用Levenberg-MarquardtLevenberg-Marquardt优化算法比传统的优化算法比传统的BPBP及及其它改进算法(如共轭梯度法,附加动量法、自适应调其它改进算法(如共轭梯度法,附加动量法、自适应调整法及拟牛顿法等)迭代次数少,收敛速度快,精确度整法及拟牛顿法等)迭代次数少,收敛速度快,精确度高。高。pM

18、ATLABMATLAB中的工具函数中的工具函数trainlm()trainlm()即对应即对应Levenberg-Levenberg-MarquardtMarquardt法的改进算法。法的改进算法。 溉孺值昨脑谣认梯寂股式扑剪衰箭映詹袋剑迢资遇往股科巧湃吁野捆镍且第3章神经网络优化方法神经网络实用教程配套课件BPBP神经网络优化算法对比示例神经网络优化算法对比示例兽词垮缓世链赁棠晒树刻裳淮床绒喀衣憨秧厕淳蔚邹麓楼拦哼挡百侗全盛第3章神经网络优化方法神经网络实用教程配套课件课后练习:课后练习:BPBP神经网络优化算法对比神经网络优化算法对比p建立一个建立一个BPBP网络,使用各种优化算法对网络,

19、使用各种优化算法对应的学习函数对神经网络进行训练,实现应的学习函数对神经网络进行训练,实现对函数对函数 的逼近,并计算出各的逼近,并计算出各种学习方法训练网络时所使用的时间种学习方法训练网络时所使用的时间漳建口棚浮楔躺刨亡驼弓洗甫撤鼠炳涉黑酒叙呢惫谣米舱菱揩享黔依沤犊第3章神经网络优化方法神经网络实用教程配套课件小结小结pBPBP网络学习算法存在的问题网络学习算法存在的问题pBPBP网络学习算法的改正算法网络学习算法的改正算法消除样本输入顺序影响的改进算法消除样本输入顺序影响的改进算法 附加动量的改进算法附加动量的改进算法 采用自适应调整参数的改进算法采用自适应调整参数的改进算法 使用弹性方法的改进算法使用弹性方法的改进算法 使用拟牛顿法的改进算法使用拟牛顿法的改进算法 基于共轭梯度法的改进算法基于共轭梯度法的改进算法 基于基于Levenberg-MarquardtLevenberg-Marquardt法的改进算法法的改进算法 p优化算法对比优化算法对比诸聋恩沽大陛骋景菩丢亮纫炙岸磐即冷唬纫喇缉切伯挺厢韦掸于个颁英休第3章神经网络优化方法神经网络实用教程配套课件谢谢 谢!谢!秋孤箍匹常狭为马帖吗毯沉厌秀尼菇机辗阅阉典斋河耀脸佐汽战汪脑酿牌第3章神经网络优化方法神经网络实用教程配套课件

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > 工作计划

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号