神经网络大作业 函数拟合讲义

上传人:今*** 文档编号:105820509 上传时间:2019-10-13 格式:DOC 页数:14 大小:159KB
返回 下载 相关 举报
神经网络大作业 函数拟合讲义_第1页
第1页 / 共14页
神经网络大作业 函数拟合讲义_第2页
第2页 / 共14页
神经网络大作业 函数拟合讲义_第3页
第3页 / 共14页
神经网络大作业 函数拟合讲义_第4页
第4页 / 共14页
神经网络大作业 函数拟合讲义_第5页
第5页 / 共14页
点击查看更多>>
资源描述

《神经网络大作业 函数拟合讲义》由会员分享,可在线阅读,更多相关《神经网络大作业 函数拟合讲义(14页珍藏版)》请在金锄头文库上搜索。

1、人工神经网络第一次作业题目:使用函数试验MATLAB中的BP算法1、 改变不同训练算法,观察效果;2、 改变参数a,c的值,观察效果;3、 改变隐层神经网络个数,观察效果;4、 尝试:加入噪声的训练效果。一、改变不同训练算法,观察效果在MATLAB中,BP网络的训练函数一共有以下几种,改变不同训练算法,观察效果就是在其他参数不变只改变程序中训练函数的情况下,得到不同训练算法的训练结果。训练方法训练函数梯度下降法traingd有动量的梯度下降法traingdm自适应lr梯度下降法traingda自适应lr动量梯度下降法traingdx弹性梯度下降法trainrpFletcher-Reeves共轭

2、梯度法traincgfPloak-Ribiere共轭梯度法traincgpPowell-Beale共轭梯度法traincgb量化共轭梯度法trainscg拟牛顿算法trainbfg一步正割算法trainossLevenberg-Marquardt法trainlm由于这只是改变程序中的训练算法,其他不变,所以为了简洁,在本程序中只选取了四种训练算法,分别是梯度下降法traingd、弹性梯度下降法trainrp、拟牛顿算法trainbfg和Levenberg-Marquardt法trainlm,只更改不同的训练算法来构造节点,程序如下,得到不同训练算法下的仿真图如图1所示。clear all;cl

3、ose all;clc;a=1,c=1; %在此改变a,c的值layer_number=20; %在此改隐含层的个数u=-4:0.001:4;t=exp(-a*u).*sin(c*u); %这里是矩阵相乘,要用点乘net=newff(minmax(u),layer_number,1,tansig,purelin,traingd);%梯度下降法y1=sim(net,u);%未训练直接输出net1=newff(minmax(u),layer_number,1,tansig,purelin,traingd);%梯度下降法net2=newff(minmax(u),layer_number,1,tans

4、ig,purelin,trainrp);%弹性梯度下降法net3=newff(minmax(u),layer_number,1,tansig,purelin,trainbfg);%拟牛顿算法net4=newff(minmax(u),layer_number,1,tansig,purelin,trainlm);%Levenberg-Marquardtnet.trainParam.show = 50;net.trainparam.epochs=1000;net.trainparam.goal=0.01;net1=train(net1,u,t);%采用梯度下降法训练节点net2=train(net2

5、,u,t);%采用弹性梯度下降法训练节点net3=train(net3,u,t);%采用拟牛顿算法训练节点net4=train(net4,u,t);%采用Levenberg-Marquardt法训练节点y2_1=sim(net1,u);y2_2=sim(net2,u);y2_3=sim(net3,u);y2_4=sim(net4,u); subplot(2,2,1)plot(u,t,b-,u,y1,g:,u,y2_1,r-); title(1、采用梯度下降法的仿真结果图);xlabel(input_u);ylabel(output_y);legend(目标函数曲线,未经训练BP网络逼近曲线,训

6、练后的BP网络逼近曲线);subplot(2,2,2)plot(u,t,b-,u,y1,g:,u,y2_2,r-) ;title(2、采用弹性梯度下降法的仿真结果图);xlabel(input_u);ylabel(output_y);legend(目标函数曲线,未经训练BP网络逼近曲线,训练后的BP网络逼近曲线);subplot(2,2,3)plot(u,t,b-,u,y1,g:,u,y2_3,r-) ;title(3、采用拟牛顿算法的仿真结果图);xlabel(input_u);ylabel(output_y);legend(目标函数曲线,未经训练BP网络逼近曲线,训练后的BP网络逼近曲线)

7、;subplot(2,2,4)plot(u,t,b-,u,y1,g:,u,y2_4,r-) ;title(4、采用Levenberg-Marquardt法的仿真结果图);xlabel(input_u);ylabel(output_y);legend(目标函数曲线,未经训练BP网络逼近曲线,训练后的BP网络逼近曲线);仿真结果图:图1 改变不同训练算法仿真结果从图1中可以看出,改变不同训练算法得到的结果有所区别。二、改变参数a,c的值,观察效果选定一种训练算法,只改变a,c的值,其它不变,在本文中,对c=1,a=0.3,0.5,0.7,1,1.5的情况和a=1,c=0.3,0.5,0.7,1,1

8、.5,3的情况进行了仿真,MATLAB程序如下,结果分别如图2和图3。clear all;close all;clc;a=1;c=1; %在此改变a,c的值layer_number=20; %在此改隐含层的个数u=-4:0.001:4;t=exp(-a*u).*sin(c*u); %这里是矩阵相乘,要用点乘net=newff(minmax(u),layer_number,1,tansig,purelin,traingd);%梯度下降法y1=sim(net,u);%未训练直接输出net=newff(minmax(u),layer_number,1,tansig,purelin,traingd);

9、net.trainParam.show = 50;net.trainparam.epochs=1000;net.trainparam.goal=0.01;net=train(net,u,t);y2=sim(net,u);%采用梯度下降法训练节点plot(u,t,-,u,y1,:,u,y2,-);title(c=1,a=1 的仿真结果图);xlabel(input_u);ylabel(output_y);legend(目标函数曲线,未经训练BP网络逼近曲线,训练后的BP网络逼近曲线);图2 c=1,a=0.3,0.5,0.7,1,1.5时的仿真结果由以上5副仿真图可知,在c值确定,a=1的时候,

10、经过梯度下降法traingd训练之后得到的结果较好。图3 a=1,c=0.3,0.5,0.7,1,1.5,3时的仿真结果对比图3的结果图,可知在a固定时,当c=1时,经过梯度下降法traingd训练之后得到的结果较好。三、改变隐层神经网络个数,观察效果选定梯度下降法traingd训练算法来训练样本,只改变隐层神经网络个数,其它不变。在本文中,对隐层神经网络个数layer_number为5、10、20、30的情况进行了仿真,MATLAB程序如下,结果分别如图4。clear all;close all;clc;a=1;c=1; %在此改变a,c的值layer_number=5; %在此改隐含层的个

11、数u=-4:0.001:4;t=exp(-a*u).*sin(c*u); %这里是矩阵相乘,要用点乘net=newff(minmax(u),layer_number,1,tansig,purelin,traingd);%梯度下降法y1=sim(net,u);%未训练直接输出net=newff(minmax(u),layer_number,1,tansig,purelin,traingd);net.trainParam.show = 50;net.trainparam.epochs=1000;net.trainparam.goal=0.01;net=train(net,u,t);y2=sim(n

12、et,u);%采用梯度下降法训练节点plot(u,t,-,u,y1,:,u,y2,-);title(隐层神经网络个数layer_number=5时结果图);xlabel(input_u);ylabel(output_y);legend(目标函数曲线,未经训练BP网络逼近曲线,训练后的BP网络逼近曲线);图4 改变隐层神经网络个数的结果 从以上结果可知,在其他参数不变,只改变隐层神经网络个数的情况下,在隐层神经网络个数layer_number=20时,获得的训练结果较理想。四、尝试:加入噪声的训练效果本文采用randn函数产生一个和输入变量同维度的一个均值为0方差为1的正态分布的随机噪声,然后加

13、入到函数中,其它参数不变,MATLAB程序如下,结果如图5所示。clear all;close all;clc;a=1;c=1; %在此改变a,c的值layer_number=20; %在此改隐含层的个数u=-4:0.001:4;ul=length(u);noise=randn(1,ul);%产生一个均值为0方差为1的正态分布的随机噪声t=exp(-a*u).*sin(c*u)+noise; %加入随机噪声net=newff(minmax(u),layer_number,1,tansig,purelin,traingd);%梯度下降法y1=sim(net,u);%未训练直接输出net=newf

14、f(minmax(u),layer_number,1,tansig,purelin,traingd);net.trainParam.show = 50;net.trainparam.epochs=1000;net.trainparam.goal=0.01;net=train(net,u,t);y2=sim(net,u);%采用梯度下降法训练节点plot(u,t,-,u,y1,:,u,y2,-);title(加入随机噪声时的结果图);xlabel(input_u);ylabel(output_y);legend(目标函数曲线,未经训练BP网络逼近曲线,训练后的BP网络逼近曲线);图5 加入随机噪声之后的结果从图5可以看出,加入随机噪声之后,训练之后得到的曲线还是较好的。

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 高等教育 > 大学课件

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号