人工神经网络与智能算法

上传人:wm****3 文档编号:57079544 上传时间:2018-10-18 格式:PPT 页数:75 大小:1.50MB
返回 下载 相关 举报
人工神经网络与智能算法_第1页
第1页 / 共75页
人工神经网络与智能算法_第2页
第2页 / 共75页
人工神经网络与智能算法_第3页
第3页 / 共75页
人工神经网络与智能算法_第4页
第4页 / 共75页
人工神经网络与智能算法_第5页
第5页 / 共75页
点击查看更多>>
资源描述

《人工神经网络与智能算法》由会员分享,可在线阅读,更多相关《人工神经网络与智能算法(75页珍藏版)》请在金锄头文库上搜索。

1、智能算法 (Intelligent Algorithm),2,主要内容,人工神经网络(Artificial Neural Network,ANN)模拟退火(Simulated Annealing,SA)遗传算法(Genetic Algorithm,GA),3,人工神经网络参考文献,陈念贻,钦佩,陈瑞亮,陆文聪,模式识别方法在化学化工中的应用,科学出版社,北京,2000。 从爽,面向MATLAB工具箱的神经网络理论与应用,中国科学技术出版社,合肥,1998。 焦李成,神经网络计算,西安电子科技大学出版社,西安,1993。 王永骥,涂健,神经元网络控制,机械工业出版社,北京,1998。 Bisho

2、p, C. (1995). Neural Networks for Pattern Recognition. Oxford: University Press. Carling, A. (1992). Introducing Neural Networks. Wilmslow, UK: Sigma Press. Fausett, L. (1994). Fundamentals of Neural Networks. New York: Prentice Hall Haykin, S. (1994). Neural Networks: A Comprehensive Foundation. Ne

3、w York: Macmillan Publishing. Patterson, D. (1996). Artificial Neural Networks. Singapore: Prentice Hall.,4,生物神经元及神经网络,神经元对信息的接受和传递都是通过突触来进行的。单个神经元可以从别的细胞接受多个输入。由于输入分布于不同的部位,对神经元影响的比例(权重)是不相同的。另外,各突触输入抵达神经元的先后时间也不一祥。因此,一个神经元接受的信息,在时间和空间上常呈现出一种复杂多变的形式,需要神经元对它们进行积累和整合加工,从而决定其输出的时机和强度。正是神经元这种整合作用,才使得亿万

4、个神经元在神经系统中有条不紊、夜以继日地处理各种复杂的信息,执行着生物中枢神经系统的各种信息处理功能。多个神经元以突触联接形成了一个神经网络。,5,一、人工神经网络,什么是人工神经网络?它就是在对大脑的生理研究的基础上,用模拟生物神经元的某些基本功能元件(即人工神经元),按各种不同的联结方式组织起来的一个网络。 其目的在于模拟大脑的某些机理与机制,实现某个方面的功能,可以用在模仿视觉、模式识别、函数逼近、模式识别、分类和数据压缩等领域,是近年来人工智能计算的一个重要学科分支。 人工神经网络有多种形式,其中反向传播人工神经网络(Back-Propagation Artificial Networ

5、k, 简称BP网络)是一种广泛使用的神经网络模型,它充分体现了人工神经网络的特点。BP网络是一种对非线性可微分函数进行权值训练的多层网络,在人工神经网络的实际应用中,8090的人工神经网络模型是采用BP网络或它的变化形式。,6,1.1 BP神经网络,神经元的结构 神经元是人工神经网络的基本处理单元,它一般为多输入/单输出的非线性元件。神经元输出除受输入信号的影响外,还受神经元内部其它因素的制约,因此在人工神经元的建模中,常常加一额外输入信号,称为偏差(bais),并取值为1。,输入分量,权值分量,神经元的输出,偏差权值,激活函数,输入分量通过与它相乘的权值分量相连,求和后与偏差权值共同构成激活

6、函数的输入 。,7,偏差,神经元的输出为:,偏差b被简单地加在,上,作为激活函数的一个输入分量。,偏差的重要作用,它使得激活函数的图形可以左右移动,这样可增加网络解决问题的能力。,8,激活函数,激活函数具有模拟生物神经元的非线性特性。,Sigmoid函数:,双曲正切tanh函数:,Sigmoid函数和双曲正切tanh函数都是单调上升函数,其极值分别为0、1和1、1,且都是可微的。,9,激活函数的一阶导数,在BP神经网络训练算法中,要用到激活函数的一阶导数。,Sigmoid函数的导数:,双曲正切tanh函数的导数:,由此可以看出,由于激活函数的特点,用神经网络计算时,需对输入和输出的值进行调整。

7、,激活函数是采用Sigmoid函数时,输入和输出的值应在0,1之间; 激活函数是双曲正切tanh函数时,输入和输出的值范围则在1,1之间。,10,1.2 BP网络的模型结构,BP网络是一种在输入层和输出层之间具有一层或多层隐层的网络模型,而其典型的结构为有一隐层、包含输入层和输出层的三层网络模型。典型BP网络的结构示意图如下:,网络的输入模式向量为P,有r个输入神经元,对应输入模式向量的每个元素。,隐层内有s1个神经元,对应隐层输出是a1。,网络的输出为a2,有s2个神经元,而目标输出为T。,三层BP神经网络不同层神经元之间实现权重连接,而每层内各个神经元之间不连接。,11,BP网络的四个计算

8、过程,输入模式由输入层经隐含层向输出层的“模式正向传播”过程;(神经元的激活值从输入层经隐含层向输出层传播,在输出层各神经元获得网络响应。) 网络实际输出与希望输出的误差信号由输出层经隐含层向输入层逐层修正连接权和阂值的“误差反向传播”过程; 由“模式正向传播”过程与“误差反向传播”过程的反复交替进行的网络学习训练过程; 网络全局误差趋向极小的学习收敛过程。(网络对输入模式响应的正确率也不断增加。 ),12,BP网络的计算过程的简单描述(1),模式正向传播过程,隐含层中第j个神经元的输出为:,输出层中第k个神经元的输出为:,误差反向传播过程,定义误差函数为:,神经网络学习的过程就是通过调整权值

9、,使误差E最小,此时可利用最速下降法求权值及误差的反向传播。,13,BP网络的计算过程的简单描述(2),隐含层中第j个神经元的输出的权值变化为:,对第i个输入到隐含层中第j个神经元输出的权值变化为:,修正后的新权重调整为:,称为学习系数,值在0,1之间。,14,加快BP网络训练速度的方法,BP网络得到了广泛的应用,但也存在自身的不足与限制,主要表现在网络训练需较长时间和网络有可能达到局部最小。据此,BP网络有各种改进方法,以加快训练速度,避免陷入局部极小。 主要的改进方法有:,增加动量项,以平滑权的变化,一种常用形式是:,为动量因子,值在0,1之间,n为迭代次数。,采用二阶学习算法。前面的基于

10、函数梯度的算法属于一阶算法,缺点就是在极值点附近收敛速度慢。采用二阶算法,如牛顿法、共轭梯度法等,将有较快的收敛速度。,模拟退火法。,15,1.4 BP神经网络计算(1),网络的层数: 在运用BP神经网络时,最多采用的是具有一层或两层隐层的网络。 具有偏差和至少一个S型隐层的网络,可以近似任何函数,这已成为设计BP神经网络的原则。 网络计算精度的提高,可以通过采用一个隐层,而增加隐层神经元数的方法来获得,这也就是通常用一隐层、包含输入层和输出层的三层BP网络模型的原因。 神经元数: 输入和输出的神经元数可以根据需要求解的问题和数据所表示的方式来确定。问题确定后,输入层与输出层的神经元数也就随之

11、定了。 隐层神经元数的选择有较广的范围: 当隐层神经元数较少时,误差下降到一定程度后会变化很小; 当隐层神经元数过多时,不仅网络训练时间长,还会出现过拟合问题,降低神经网络的预测功能。 通常隐层神经元数的选择原则是:在能解决问题的前提下,再加上1到2个神经元以加快误差的下降速度即可。,16,BP神经网络计算(2),初始权值的选取 权重初始值的选取,对网络训练学习是否达到局部最小,是否能够收敛以及训练时间的长短有很大的关系。 如果初始权值太大,使得加和后的值落在激活函数的饱和区,从而导致激活函数的导数非常小,在计算权值修正时,调整值接近零,网络的学习训练几乎处在停止状态。 所以一般总是希望经过初

12、始权值计算后每个神经元的输出值都接近零,这样可以保证每个神经元的权值都能在激活函数变化最大之处进行调节。 一般来说,初始权值取-1,1之间的随机数是较好的选择。,17,BP神经网络计算(3),学习速率 学习速率决定每一次循环训练中所产生的权值变化量。 大的学习速率可能导致系统的不稳定; 但小的学习速率导致较长的训练时间,可能收敛很慢,不过能保证网络的误差值不跳出误差表面的低谷而最终趋于最小误差值。 所以在一般情况下,倾向于选取较小的学习速率以保证系统的稳定性。学习速率的选取范围在0.010.8之间。 在一个神经网络的计算过程中,使网络经过几个不同的学习速率的训练,通过观察每一次训练后的误差平方

13、和的下降速率来判断所选定的学习速率是否合适。 如果误差平方和下降很快,则说明学习速率合适 若误差平方和出现振荡现象,则说明学习速率过大。 对于每一个具体网络都存在一个合适的学习速率。但对于较复杂网络,在误差曲面的不同部位可能需要不同的学习速率。为了减少寻找学习速率的训练次数以及训练时间,比较合适的方法是采用变化的学习速率,使网络的训练在不同的阶段自动设置不同学习速率的大小。,18,BP神经网络计算程序BATCHNET简介,BATCHNET是一个 BP神经网络计算的DOS程序,程序由batchnet.exe和weights.exe两个可执行文件构成。 batchnet为网络训练和预测程序,激活函

14、数为Sigmoid函数,输入输出样本值范围为0,1。 weights程序产生初始权值。批处理程序demo.bat,batchnet -e10 d1.0e-5 demo.run,说明: -e10 表示网络每迭代10步后显示误差; d1.0e-5 表示网络训练误差; demo.run 求解问题的网络参数文件,由batchnet调用,文件名可改,但扩展名run不能变。,19,BP神经网络计算程序BATCHNET简介,网络参数文件demo.run的格式,4 train.out train.err train.pat weights.wts train.wts 100 1000 9 4 2 0.15 0

15、.075 test.out test.err test.pat train.wts test.wts 166 1 9 4 2 0.15 0.075 train.out train.err train.pat train.wts train.wts 100 1000 9 4 2 0.15 0.075 test.out test.err test.pat train.wts test.wts 166 1 9 4 2 0.15 0.075,Num fOut fErr fPat fWts fWtso nPats nIter nInp nHid nOut eta alpha,Num 运行次数,本例为4;

16、 fOut 网络计算结果输出文件,输出; fErr 网络计算误差文件,输出; fPat 训练学习样本文件,输入; fWts 问题的初始权值文件,输入,由程序weights产生; fWtso 训练后的权值文件,输出; nPats 训练样本数,本例为100; nIter 训练迭代次数,本例为1000; nInp 输入层神经元数目,本例为9; nHid 隐层神经元数目,本例为4; nOut 输出层神经元数目,本例为2; eta 学习速率,本例为0.15; alpha 动量因子,本例为0.075。,表示用BP神经网络先对100对输入输出样本进行学习训练1000次,预测166个样本一次,然后继续学习训练1000次后再进行一次预测。Batchnet如只计算一次,则不对连接权重进行更新。,20,BP神经网络计算程序BATCHNET简介,程序weights的运行 :,weights int_num nInp nHid nOut ran_wts,

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 生活休闲 > 社会民生

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号