神经网络作业(函数逼近)

上传人:枫** 文档编号:476710594 上传时间:2023-03-01 格式:DOCX 页数:16 大小:388.98KB
返回 下载 相关 举报
神经网络作业(函数逼近)_第1页
第1页 / 共16页
神经网络作业(函数逼近)_第2页
第2页 / 共16页
神经网络作业(函数逼近)_第3页
第3页 / 共16页
神经网络作业(函数逼近)_第4页
第4页 / 共16页
神经网络作业(函数逼近)_第5页
第5页 / 共16页
点击查看更多>>
资源描述

《神经网络作业(函数逼近)》由会员分享,可在线阅读,更多相关《神经网络作业(函数逼近)(16页珍藏版)》请在金锄头文库上搜索。

1、智能控制理论及应用作业1资料查询BP 神经网络的重要应用:人脸辨认、风电功率预测、短时交通流混沌预测、高炉熔渣粘度预测、汇率预测、价格预测、函数逼近等Rbf神经网络的重要应用:函数逼近、短时交通流预测、模式辨认、降水预测、民航客运量预测、遥感影像分析、声纹辨认、语言辨认、人脸辨认、车牌辨认、汇率预测Hopfel网络应用:车牌辨认、图像辨认、遥感影像分类、字母辨认、交通标志辨认、 优化计算中的应用、联想记忆存储器的实现、2 BP编程算法:2.1 运用样本训练一种B网络注:此程序自李国勇书中学习而来程序部分:fnction out_ars = bp(nputargs)%UTITLED Sumar

2、ofis fon ges hre% tailed elnio geshere此设计为两层P神经网络,输入,隐含层节点,两个输出初始化部分:lr00; %需要给定学习速率ero_gal=001; 盼望的误差mx_epoch=100000; %训练的最大步长a=0.9; %惯性系数 Oi0;Ok0;给两组输入,以及目的输出:X=1 1 1;-1 -1;1 - 1; %随便给一组输入输入,训练BP网络T=11;1 1 1;%X=-1:0.1:1; %输入范畴%=sin(p*X);%=3; 隐含层的节点数自己定义,在此给3个%初始化,N=ze(X); %输入节点个数为M,为样本数L,N=sze(T);

3、 %输出节点个数为Lwij=rnd(q,M); %先给定加权系数一组随机值wki=rand(L,q);wi0=zero(size(wi); 加权系数矩阵的初始值wki0=zr(sie(wk);fo epc1:max_eph %计算开始 E=*X;%各个隐含层的净输入 for=:N fr i1:q i(i,)=2/(1+xp(-NETi(,)))-1; %再输入作用下,隐含层的输出 end end NTk=*Oi; %各个输出层的净输入 foi1:N for k=:L k(k,i)=2/(1+exp(-ETk(k,i)-1; %在输入作用下,输出层的输出 end end E=(Tk)*(T-Ok

4、)/2; 性能指标函数,就是误差 i(errogoal) break; %判断与否满足误差,满足的话就直接跳出计算 %不满足的话,就要修正加权系数 else elakOk.*(-Ok).*(-k); 计算 wwki; wkiwkilr*ltkO+a*(wk-wi0); wki=w; dltaiOi.(1-Oi).*(deltak*wki); 计算i ww; i=wi+ldlta*X+a*(wij-wij0); wj0=; en epoc %目前是第多少步 X1=X; %保护目前的输入 NETiwij*X1; %再一次计算隐含层的输入输出 or j=1:N fori1:q Oi(i,j)=2/(

5、+xp(-ETi(i,j)1; end end NEk=wki*Oi; %再一次计算输出层的输出 for i:N ok=1: k(,i)/(1+exp(ET(k,i))-1; end end %直到误差满足规定才跳到此步,输出修正的输出值 Oi % O %最后满足误差规定下的输出 w %输出输入层与隐含层的最后修改后的权值 wki %输出隐含层与输出层之间的取值nd仿真成果:epoch 8Oi = 0.990 -0.404 .999 095 0244 0.989 0.9734 0991 .936 = 1.0000 1.000 .000 0.982 58 0.81wij = 3.576 2.08

6、 2.595 5497 -0.644 2.773 5.533 .4516 -1678wki = 1.54 6.13 .880 2.093 1.38 3.84由仿真成果可以看出,网络在第八步就可以得到满足误差函数的输出,输出时OK。由于初始权值是随机给定的,因此每次运营成果也许有所差别。22用P网路逼近si函数:ftion outut_arg B1( purgs)%UITLD Sarytisfnctiogoes hre% Dtailedplanaton go eP=01 2 3 89 10;T=0 12 3 43 2 1 3 4;=-1:.1:; %输入范畴T=sin(p*P); %样本值net

7、neff( 1,5,,tans,purelin); %建立网络%etnff(0 10,5,1,tansi,ureln,trind,engd,sreg); %net=neff(010,5,,tasig,puelin,traigx,arngd,mse); ttranPaam.echs=200; %训练步长为20ne=trai(net,P,T); %开始训练ie; Y=sim(et,); %输入下网络的输出pot(P,,+,P,Y,o) %将样本与实际输出作图显示end逼近成果:其中+为目的值,O为实际输出值,从逼近小姑来看,效果还是比较抱负的。3 GUI作业:ATLA工具箱中常用的几类函数:前向网

8、络创立函数:wcf创立级联前向网络nwff 创立前向B网络ewffd 创立存在输入延迟的前向网络传递函数:lgsigS型的对数函数ogsi logsig的导函数ansigS型的正切函数dtasgtnsg的导函数urein 纯线性函数duelipuelin的导函数学习函数:leangd 基于梯度下降法的学习函数erg梯度下降栋梁学习函数训练函数:trainbrBe 规范化BP训练函数tainc循环顺序渐增训练函数traincgPwelleal连接梯度B训练函数rancf FetcrPoell连接梯度B训练函数icg PlaRibie连接梯度BP训练函数traingda自适应lrB的梯度递减训练函

9、数raigdx动量及自适应rBP的梯度递减训练函数trinlm evenberg-Marqard BP训练函数trinos一步正切BP训练函数trainr 随机顺序递增更新训练函数trinrp带反弹的B训练函数tai顺序递增BP训练函数traincg 量化连接梯度BP训练函数性能函数:mse 均方误差函数msereg 均方误差规范化函数显示函数:plotef 绘制网络的性能lot 绘制一种单独神经元的误差曲面plotep 绘制权值和阈值在误差曲面的位置errsurf计算单个神经元的误差曲面GUI的应用:我选择的是建立BP网络逼近in 函数一方面在MTLAB主窗口 输入ntoo即可进入神经网络工

10、具箱点击下方的ceat netork or data即可进行输入、目的输出及网络的选择。 1一方面输入一种输入X:-:0.1:1; 再输入盼望输出T:sn(pi*(-:0.:1));2然后建立BP网络如下图所示:命名为P1选用网络形式中选择:前馈BP网络,输入选择,盼望输出选择,训练函数选择:TRAINLM(Levnbr-ruart BP训练函数)学习函数选择:LEARNG(基于梯度下降法的学习函数)误差计算函数选择MS(均方误差函数),神经元传播函数选择:TANSIG(S型的正切函数)单击cra即可建立网络。建立好后进行训练进入训练界面,选择输入和盼望输出,即可进行训练。训练成果如下:性能如下所示:可以看出,当系统训练6步时,系统输出即可满足性能规定,此时停止训练。再此图,我们可以清晰的看清系统的盼望输出、实际输出和两者的误差。从误差可以看出,逼近的sin函数误差是很小的。同理可运用RB网络逼近N函数建

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 办公文档 > 活动策划

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号