浅析基于EKF的模糊神经网络快速自组织学习算法

上传人:大米 文档编号:511537217 上传时间:2023-01-30 格式:DOC 页数:5 大小:15.50KB
返回 下载 相关 举报
浅析基于EKF的模糊神经网络快速自组织学习算法_第1页
第1页 / 共5页
浅析基于EKF的模糊神经网络快速自组织学习算法_第2页
第2页 / 共5页
浅析基于EKF的模糊神经网络快速自组织学习算法_第3页
第3页 / 共5页
浅析基于EKF的模糊神经网络快速自组织学习算法_第4页
第4页 / 共5页
浅析基于EKF的模糊神经网络快速自组织学习算法_第5页
第5页 / 共5页
亲,该文档总共5页,全部预览完了,如果喜欢就下载吧!
资源描述

《浅析基于EKF的模糊神经网络快速自组织学习算法》由会员分享,可在线阅读,更多相关《浅析基于EKF的模糊神经网络快速自组织学习算法(5页珍藏版)》请在金锄头文库上搜索。

1、浅析基于EKF的模糊神经网络快速自组织学习算法摘要:为了快速地构造一个有效的模糊神经网络,提出一种基于扩展卡尔曼滤波(ekf)的模糊神经网络自组织学习算法。在本算法中,按照提出的无须经过修剪过程的生长准那么增加规那么,加速了网络在线学习过程;使用ekf算法更新网络的自由参数,增强了网络的鲁棒性。仿真结果说明,该算法具有快速的学习速度、良好的逼近精度和泛化才能。关键词:模糊神经网络;扩展卡尔曼滤波;自组织学习di:10.3969/j.issn.1001-3695.2022.07.016fastself-rganizinglearningalgrithbasednekffrfuzzyneuraln

2、etrkzhushang-b,liuyu-jing(llegefputersiene,hngqinguniversity,hngqing400044,hina)abstrat:tnstrutaneffetivefuzzyneuralnetrk,thispaperpresentedaself-rganizinglearningalgrithbasednextendedkalanfilterfrfuzzyneuralnetrk.inthealgrith,thenetrkgrerulesardingttheprpsedgringriteriaithutpruning,speedingupthenli

3、nelearningpress.allthefreeparaetersereupdatedbytheextendedkalanfilterapprahandtherbustnessfthenetrkasbviuslyenhaned.thesiulatinresultsshthattheprpsedalgrithanahievefastlearningspeed,highapprxiatinpreisinandgeneratinapability.keyrds:fuzzyneuralnetrk;extendedkalanfilter(ekf);self-rganizinglearning模糊神经

4、网络起源于20世纪80年代后期的日本,由于其简单、实用,已经被广泛应用在工业控制、系统辨识、形式识别、数据挖掘等许多领域14。然而,如何从可用的数据集和专家知识中获取适宜的规那么数仍然是一个尚未解决的问题。为了获取模糊规那么,研究人员提出了不同的算法,如文献5利用正交最小二乘算法确定径向基函数的中心,但是该算法训练速度比拟慢;文献6提出了基于径向基函数的自适应模糊系统,其算法使用了分层自组织学习策略,但是逼近精度低。扩展卡尔曼滤波(ekf)算法作为一种非线性更新算法,在神经网络中得到了广泛应用。文献7利用扩展卡尔曼滤波算法调整多层感知器的权值,文献8利用扩展卡尔曼滤波算法调整径向基函数网络的权

5、值。本文提出了一种模糊神经网络的快速自组织学习算法(sfnn)。该算法基于无须修剪过程的生长准那么增加模糊规那么,加速了网络学习过程,同时使用ekf调整网络的参数。在该算法中,模糊神经网络构造不是预先设定的,而是在学习过程中动态变化的,即在学习开场前没有一条模糊规那么,在学习过程中逐渐增加模糊规那么。与传统的模糊神经网络学习算法相比,本算法所得到的模糊规那么数并不会随着输入变量的增加而呈指数增长,特别是本算法无须领域的专家知识就可以实现对系统的自动建模及抽取模糊规那么。当然,假如设计者是领域专家,其知识也可以直接用于系统设计。本算法所得到的模糊神经网络具有构造孝防止出现过拟合现象等特点。1sf

6、nn的构造下面是对该网络各层含义的详细描绘。第一层:输入层。每个节点代表一个输入语言变量。第二层:隶属函数层。每个节点代表一个隶属函数,隶属函数采用如下的高斯函数:第四层:输出层。该层每个节点代表一个输出变量,该输出是所有输入变量的叠加。2sfnn的学习算法如前文所述,第三层的每个节点代表一个可能的模糊规那么的if-局部或者一个rbf单元。假如需要辨识系统的模糊规那么数,那么不能预先选择模糊神经网络的构造。于是,本文提出一种新的学习算法,该算法可以自动确定系统的模糊规那么并能到达系统的特定性能。2.1模糊规那么的产生准那么在模糊神经网络中,假如模糊规那么数太多,不仅增加系统的复杂性,而且增加计

7、算负担和降低网络的泛化才能;假如规那么数太少,系统将不能完全包含输入/输出状态空间,将降低网络的性能。是否参加新的模糊规那么取决于系统误差、可包容边界和误差下降率三个重要因素。2.1.1系统误差2.1.2可包容边界从某种意义上来讲,模糊神经网络构造的学习是对输入空间的高效划分。模糊神经网络的性能和构造与输入隶属函数严密相关。本文使用的是高斯隶属函数,高斯函数输出随着与中心间隔 的增加而单调递减。当输入变量采用高斯隶属函数时,那么认为整个输入空间由一系列高斯隶属函数所划分。假如某个新样本位于某个已存在的高斯隶属函数覆盖范围内,那么该新样本可以用已存在的高斯隶属函数表示,不需要网络生成新的高斯单元。其中:u是现有的模糊规那么或rbf单元的数量。令2.1.3误差下降率传统的学习算法把误差减少率(err)5用于网络生长后的修剪过程,算法会因为修剪过程而增加计算负担,降低学习速度。本文把误差减少率用于生长过程形成一种新的生长准那么,算法无须经过修剪过程,从而加速网络的学习过程。式(9)可简写为d=h+e(10)对于矩阵,假如它的行数大于列数,通过qr分解:h=pq(11)d=pq+e=pg+e(12)q和满足下面的方程:q=g(14)去掉均值后,d的方差由式(16)给出:把式(13)代入式(17)可得假如gf

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 学术论文 > 其它学术论文

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号