第4讲计算智能ppt课件

上传人:工**** 文档编号:591542556 上传时间:2024-09-18 格式:PPT 页数:23 大小:750.50KB
返回 下载 相关 举报
第4讲计算智能ppt课件_第1页
第1页 / 共23页
第4讲计算智能ppt课件_第2页
第2页 / 共23页
第4讲计算智能ppt课件_第3页
第3页 / 共23页
第4讲计算智能ppt课件_第4页
第4页 / 共23页
第4讲计算智能ppt课件_第5页
第5页 / 共23页
点击查看更多>>
资源描述

《第4讲计算智能ppt课件》由会员分享,可在线阅读,更多相关《第4讲计算智能ppt课件(23页珍藏版)》请在金锄头文库上搜索。

1、第4讲 计算智能人工神经网络学习概述人工神经网络提供了一种普遍且适用的方法从样例中学习值为实数、离散值或向量的函数。人工神经网络对于训练数据中的错误强壮性很好。人工神经网络已被胜利运用到很多领域,例如视觉场景分析,语音识别,机器人控制。其中,最流行的网络和算法是20世纪80年代提出的BP网络和BP算法, BP算法运用梯度下降法来调理BP网络的参数以最正确拟合由输入-输出对组成的训练集合。BP算法概述1、BP算法的出现非循环多级网络的训练算法UCSD PDP小组的Rumelhart、Hinton和Williams1986年独立地给出了BP算法清楚而简单的描画1982年,Paker就完成了类似的任

2、务1974年,Werbos已提出了该方法2、弱点:训练速度非常慢、部分极小点的逃离问题、 算法不一定收敛。3、优点:广泛的顺应性和有效性。BP网络的根本构造确定BP网络的拓扑构造在开场训练之前,需求确定网络的拓扑构造:出入层神经元的个数、隐含层神经元的层数及每一层神经元的个数、输出层神经元的个数。对训练样本中的每一属性的值进展归一化,使其值落在0,1区间,有助于加快学习过程。对于离散的属性值,要进展适宜的编码。BP网普通都选用二级网络。实验阐明:添加隐藏层的层数和隐藏层神经元个数不一定总可以提高网络精度和表达才干。神经元的M-P模型激活函数激活函数(Activation Function) (

3、Activation Function) 激激活活函函数数执执行行对对该该神神经经元元所所获获得得的的网网络络输输入入的的变变换换,也也可可以以称称为为鼓鼓励励函函数数、活活化函数:化函数: o=f o=fnetnet 1 1、线性函数、线性函数Liner FunctionLiner Function f fnetnet=k*net+c =k*net+c netooc2、非线性斜面函数、非线性斜面函数(Ramp Function)ifnetfnet=k*netif|net|0为一常数,被称为饱和值,为该神经元的最大输出。2、非线性斜面函数、非线性斜面函数Ramp Function - - ne

4、t o 3、阈值函数、阈值函数Threshold Function阶跃函数阶跃函数if netfnet=-if net 、均为非负实数,均为非负实数,为阈值为阈值二值方式:二值方式:1if netfnet=0if net 双极方式:双极方式:1if netfnet=-1if net 3、阈值函数、阈值函数Threshold Function阶跃函数阶跃函数-onet04、S形函数形函数 紧紧缩缩函函数数Squashing Squashing FunctionFunction和和逻逻辑辑斯斯特函数特函数Logistic FunctionLogistic Function。f fnetnet=a+

5、b/(1+exp(-d*net)=a+b/(1+exp(-d*net)a a,b b,d d为常数。它的饱和值为为常数。它的饱和值为a a和和a+ba+b。最简单方式为:最简单方式为:f fnetnet= 1/(1+exp(-d*net)= 1/(1+exp(-d*net) 函数的饱和值为函数的饱和值为0 0和和1 1。S S形函数有较好的增益控制形函数有较好的增益控制 4、S形函数形函数 a+bo(0,c)netac=a+b/2BP算法BP算法的根本思想BP算法的根本任务过程大约可以分为两个阶段:1信号的向前传播,在这个阶段,要求计算出隐含层和输出层中每一神经元的净输入和输出。2误差的向后传

6、播,在这个阶段,要求计算出输出层和隐含层中每一神经元的误差。初始化问题在BP算法中,权和偏置在网络学习之前,都将其初始化为不同的小随机数。“不同保证网络可以学习;“小随机数防止其值过大而提早进入饱和形状。更新问题根本的BP算法采用的是实例更新,即每处置一个实例就更新一次权和偏置。实例更新的缺陷:实例的顺序对训练结果有较大影响。它更“偏爱较后出现的实例。而给其中的实例安排一个适当的顺序,是非常困难的。处理的方法就是采用周期更新,即每处置一遍一切的实例才更新一次权和偏置。周期更新的益处是:可以消除实例顺序对结果的影响。收敛速度问题BP算法的训练速度是非常慢的,尤其是当训练到达一定的程度后,甚至有时

7、是发散的。部分极小点问题防止修正初始值:并不是总有效。逃离统计方法:Wasserman,1986将Cauchy训练与BP算法结合起来,可以在保证训练速度不被降低的情况下,找到全局极小点。网络瘫痪问题在训练中,权能够变得很大,这会使神经元的网络输入变得很大,从而又使得其激活函数的导函数在此点上的取值很小。根据相应式子,此时的训练步长会变得非常小,进而将导致训练速度降得非常低,最终导致网络停顿收敛。稳定性问题用修正量的综合实施权的修正用消除样本顺序影响的算法4-2来训练延续变化的环境,它将变成无效的网络不可塑步长问题BP网络的收敛是基于无穷小的权修正量步长太小,收敛就非常慢步长太大,能够会导致网络的瘫痪和不稳定自顺应步长,使得权修正量能随着网络的训练而不断变化。1988年,Wasserman BP算法适宜问题的特征实例是用很多“属性-值对表示的目的函数的输出能够是离散值、实数值或者由假设干实数属性或离散属性组成的向量训练数据能够包含错误可容忍长时间的训练能够需求快速求出目的函数值(分类速度快)人类能否了解学到的目的函数是不重要的

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 建筑/环境 > 施工组织

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号