课件:人工神经网络及其应用

上传人:优*** 文档编号:85005479 上传时间:2019-03-06 格式:PPT 页数:136 大小:5.51MB
返回 下载 相关 举报
课件:人工神经网络及其应用_第1页
第1页 / 共136页
课件:人工神经网络及其应用_第2页
第2页 / 共136页
课件:人工神经网络及其应用_第3页
第3页 / 共136页
课件:人工神经网络及其应用_第4页
第4页 / 共136页
课件:人工神经网络及其应用_第5页
第5页 / 共136页
点击查看更多>>
资源描述

《课件:人工神经网络及其应用》由会员分享,可在线阅读,更多相关《课件:人工神经网络及其应用(136页珍藏版)》请在金锄头文库上搜索。

1、第 8 章 人工神经网络及其应用,教材: 王万良人工智能及其应用(第2版) 高等教育出版社,2008. 6,2,第8章 人工神经网络及其应用,神经网络(neural networks,NN),生物神经网络( natural neural network, NNN): 由中枢神经系统(脑和脊髓)及周围神经系统(感觉神经、运动神经等)所构成的错综复杂的神经网络,其中最重要的是脑神经系统。 人工神经网络(artificial neural networks, ANN): 模拟人脑神经系统的结构和功能,运用大量简单处理单元经广泛连接而组成的人工网络系统。,神经网络方法: 隐式的知识表示方法,3,第8章

2、 人工神经网络及其应用,8.1 神经元与神经网络 8.2 BP神经网络及其学习算法 8.3 BP神经网络的应用 8.4 Hopfield神经网络及其改进 8.5 Hopfield神经网络的应用 8.6 Hopfield神经网络优化方法求解JSP,4,第8章 人工神经网络及其应用,8.1 神经元与神经网络 8.2 BP神经网络及其学习算法 8.3 BP神经网络的应用 8.4 Hopfield神经网络及其改进 8.5 Hopfield神经网络的应用 8.6 Hopfield神经网络优化方法求解JSP,5,8.1 神经元与神经网络,8.1.1 生物神经元的结构 8.1.2 神经元数学模型 8.1.3

3、 神经网络结构与工作方式,6,8.1.1 生物神经元的结构,人脑由一千多亿(1011亿 1014 亿)个神经细胞(神经元)交织在一起的网状结构组成,其中大脑皮层约140亿个神经元,小脑皮层约1000亿个神经元。,神经元约有1000种类型,每个神经元大约与103 104个其他神经元相连接,形成极为错综复杂而又灵活多变的神经网络。 人的智能行为就是由如此高度复杂的组织产生的。浩瀚的宇宙中,也许只有包含数千忆颗星球的银河系的复杂性能够与大脑相比。,7,8.1.1 生物神经元的结构,(输入),(输出),神经冲动,生物神经元结构,8,8.1.1 生物神经元的结构,工作状态: 兴奋状态:细胞膜电位 动作电

4、位的阈值 神经冲动 抑制状态:细胞膜电位 动作电位的阈值 学习与遗忘:由于神经元结构的可塑性,突触的传递作用可增强和减弱 。,9,8.1 神经元与神经网络,8.1.1 生物神经元的结构 8.1.2 神经元数学模型 8.1.3 神经网络的结构与工作方式,10,8.1.2 神经元数学模型,1943年,麦克洛奇和皮兹提出MP模型。一般模型:,11,8.1.2 神经元数学模型,:第 个神经元的输出。 :第 个神经元的阈值。 :外部输入。 :权值。,加权求和: 其矩阵形式:,12,线性环节的传递函数: :1; ; ; 及其组合等。,8.1.2 神经元数学模型,13,8.1.2 神经元数学模型,非线性激励

5、函数(传输函数、输出变换函数),(硬极限函数或阶跃函数),(对称硬极限函数),14,8.1.2 神经元数学模型,非线性激励函数(传输函数、输出变换函数),(对数- S 形函数或S型函数),(双曲正切S形函数),15,8.1.2 神经元数学模型,非线性激励函数(传输函数、输出变换函数),(饱和线性函数),(对称饱和线性函数),16,8.1.2 神经元数学模型,非线性激励函数(传输函数、输出变换函数),(线性函数),(高斯或径向基函数),17,8.1.2 神经元数学模型,工作过程: 从各输入端接收输入信号 uj ( j = 1, 2, , n ) 根据连接权值求出所有输入的加权和 用非线性激励函数

6、进行转换,得到输出,18,8.1.2 神经元数学模型,19,8.1 神经元与神经网络,8.1.1 生物神经元的结构 8.1.2 神经元的数学模型 8.1.3 神经网络的结构与工作方式,20,8.1.3 神经网络的结构与工作方式,决定人工神经网络性能的三大要素:,神经元的特性。 神经元之间相互连接的形式拓扑结构。 为适应环境而改善性能的学习规则。,21,1. 神经网络的结构 (1)前馈型( 前向型),8.1.3 神经网络的结构与工作方式,22,1. 神经网络的结构 (2)反馈型,( Hopfield神经网络),8.1.3 神经网络的结构与工作方式,23,2. 神经网络的工作方式,同步(并行)方式

7、:任一时刻神经网络中所有神经元同时调整状态。 异步(串行)方式:任一时刻只有一个神经元调整状态,而其它神经元的状态保持不变。,8.1.3 神经网络的结构与工作方式,24,探索时期(开始于20世纪40年代):,1943年,麦克劳(W. S. McCullocn)和匹茨(W. A. Pitts)首次提出一个神经网络模型MP模型。 1949年,赫布(D. O. Hebb)提出改变神经元连接强度的 Hebb学习规则。,8.1.4 神经网络的发展概况,25,1958年,罗森布拉特(F. Rosenblatt)提出感知器模型(perceptron)。 1959年,威德罗(B. Widrow)等提出自适应线

8、性元件(adaline)网络,通过训练后可用于抵消通信中的回波和噪声。 1960年, 他和 M. Hoff 提出LMS (Least Mean Square 最小方差)算法的学习规则。,8.1.4 神经网络的发展概况,第一次热潮时期:20世纪50年代末 20世纪60年代初,26,1969年,明斯基(M. Minsky)等在Perceptron中对感知器功能得出悲观结论。 1972年,T. Kohonen 和 J. Anderson 分别提出能完成记忆的新型神经网络。 1976年,S. Grossberg 在自组织神经网络方面的研究十分活跃。,8.1.4 神经网络的发展概况,低潮时期:20世纪6

9、0年代末 20世纪70年代,27,第二次热潮时期: 20世纪80年代至今,1982年1986年,霍普菲尔德(J. J. Hopfield)陆续提出离散的和连续的全互连神经网络模型,并成功求解旅行商问题(TSP)。 1986年,鲁姆尔哈特(Rumelhart)和麦克劳(McCellan)等在Parallel Distributed Processing中提出反向传播学习算法(BP算法) 。 1987年6月,首届国际神经网络学术会议在美国圣地亚哥召开,成立了国际神经网络学会(INNS)。,8.1.4 神经网络的发展概况,28,神经网络控制的研究领域,基于神经网络的系统辨识 神经网络控制器 神经网络

10、与其他算法(模糊逻辑、专家系统、遗传算法等)相结合 优化计算,8.1.4 神经网络的发展概况,29,第8章 人工神经网络及其应用,8.1 神经元与神经网络 8.2 BP神经网络及其学习算法 8.3 BP神经网络的应用 8.4 Hopfield神经网络及其改进 8.5 Hopfield神经网络的应用 8.6 Hopfield神经网络优化方法求解JSP,30,8.2 BP神经网络及其学习算法,8.2.1 BP神经网络 (back-propagation neural network)的结构 8.2.2 BP学习算法 8.2.3 BP算法的实现,31,8.2 BP神经网络及其学习算法,8.2.1 B

11、P神经网络(back-propagation neural network)的结构 8.2.2 BP学习算法 8.2.3 BP算法的实现,32,8.2.1 BP神经网络的结构,1. BP 网络结构,33,8.2.1 BP神经网络的结构,2. 输入输出变换关系,34,8.2.1 BP神经网络的结构,3. 工作过程,第一阶段或网络训练阶段: N 组输入输出样本:xi=xi1, xi2, xip1T di=di1, di2,dipmT i=1, 2, N 对网络的连接权进行学习和调整,以使该网络实现给定样本的输入输出映射关系。 第二阶段或称工作阶段:把实验数据或实际数据输入到网络,网络在误差范围内预

12、测计算出结果。,35,8.2 BP神经网络及其学习算法,8.2.1 BP神经网络的结构 8.2.2 BP学习算法 8.2.3 BP算法的实现,36,(1)是否存在一个BP神经网络能够逼近给定的样本或者函数。,8.2.2 BP学习算法,两个问题:,( 2)如何调整BP神经网络的连接权,使网络的输入与输出与给定的样本相同。 1986年,鲁梅尔哈特(D. Rumelhart)等提出BP学习算法。,37,8.2.2 BP学习算法,目标函数:,约束条件:,连接权值的修正量:,1. 基本思想,38,8.2.2 BP学习算法,正向传播:输入信息由输入层传至隐层,最终在输出层输出。 反向传播:修改各层神经元的

13、权值,使误差信号最小。,2. 学习算法,39,8.2.2 BP学习算法,2. 学习算法,40,8.2.2 BP学习算法,2. 学习算法,41,8.2 BP神经网络及其学习算法,8.2.1 BP神经网络的结构 8.2.2 BP学习算法 8.2.3 BP算法的实现,42,8.2.3 BP算法的实现,(1) 隐层数及隐层神经元数的确定:目前尚无理论指导。 (2)初始权值的设置:一般以一个均值为0的随机分布设置网络的初始权值。 (3)训练数据预处理:线性的特征比例变换,将所有的特征变换到0,1或者-1,1区间内,使得在每个训练集上,每个特征的均值为0,并且具有相同的方差。 (4)后处理过程:当应用神经

14、网络进行分类操作时,通常将输出值编码成所谓的名义变量,具体的值对应类别标号。,1. BP算法的设计,43,8.2.3 BP算法的实现,(1)初始化:对所有连接权和阈值赋以随机任意小值; (2) 从 N 组输入输出样本中取一组样本:x=x1, x2, xp1T, d=d1, d2,dpmT, 把输入信息x=x1, x2, xp1T输入到BP网络中 (3)正向传播:计算各层节点的输出: (4)计算网络的实际输出与期望输出的误差:,2. BP算法的计算机实现流程,44,8.2.3 BP算法的实现,(5)反向传播:从输出层方向计算到第一个隐层,按连接权值修正公式向减小误差方向调整网络的各个连接权值。

15、(6)让t+1t,取出另一组样本重复(2)(5),直到 N 组输入输出样本的误差达到要求时为止。,2. BP算法的计算机实现流程,45,8.2.3 BP算法的实现,BP学习算法的程序框图,46,1. 特点,BP网络:多层前向网络(输入层、隐层、输出层)。 连接权值:通过Delta学习算法进行修正。 神经元传输函数:S形函数。 学习算法:正向传播、反向传播。 层与层的连接是单向的,信息的传播是双向的。,8.2.4 BP算法的特点分析,47,2. BP网络的主要优缺点,很好的逼近特性。 具有较强的泛化能力。 具有较好的容错性。,优点,收敛速度慢。 局部极值。 难以确定隐层和隐层结点的数目。,缺点,8.2.4 BP算法的特点分析,48,8.3 BP神经网络的应用,8.3.1 BP神经网络在模式识别中的应用 8.3.2 BP神经网络在软测量中的应用,49,8.3.1 BP神经网络在模式识别中的应用,模式识别研究用计算机模拟生物、人的感知,对模式信息,如图像、文字、语音等,进行识别和分类。 传统人工智能的研究部分地显示了人脑的归纳、推理等智能。但是,对于人类底层的智能,如视觉、听觉、触觉等方面,现代计算机系统的信息处理能力还不如一个幼儿园的孩子。 神经网络模型模拟了人脑神经系统的特点:处理单元的广泛连接;并行分布式信息储存、处理;自适应学习能力等。 神经网络模式识别方法具有较

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 医学/心理学 > 基础医学

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号