《源代码基于遗传神经网络和光谱分析的船舶机械状态监测研究论文》由会员分享,可在线阅读,更多相关《源代码基于遗传神经网络和光谱分析的船舶机械状态监测研究论文(8页珍藏版)》请在金锄头文库上搜索。
1、附录程序源代码 以“永财”号为例,提供铁金属含量预测程序源代码x=1:1:18%铁元素含量18组历史数据y=5 4.4 5.8 6.4 3.1 1.8 5.9 2.9 8.9 8.8 5.9 2.6 1.7 6.1 3.2 0.7 2.4 2.2 x1=linspace(1,18,100) y1=spline(x,y,x1)plot(x,y,*,x1,y1,b)xlabel(取样次数)ylabel(铁元素含量)% 声明全局变量global p % 训练集输入数据global t % 训练集输出数据global R % 输入神经元个数global S2 % 输出神经元个数global S1 %
2、隐层神经元个数global S % 编码长度% 导入数据S1=10% 输入和输出样本for i=1:75 p(i,1:10)=y1(i:i+9)endt=p(2:75,10)% 数据归一化pn,minp,maxp,tn,mint,maxt = premnmx(p,t);% 测试数据for j=1:15 k(j,1:10)=y1(j+75:j+84)end% 数据归一化kn,mink,maxk,en,mine,maxe=premnmx(k,e);% BP神经网络% 网络创建net=newff(minmax(pn),10,1, tansig,purelin ,trainlm);net.layers
3、 1.initFcn=initwb;net.layers 2 .initFcn=initwb;net.inputWeights 1,1 .initFcn=rands;net.layerWeights 2,1.initFcn=rands;net.biases 1,1.initFcn=rands;net.biases 2,1.initFcn=rands;% 设置训练参数net.trainParam.show=100;net.trainParam.lr=0.1;net.trainParam.mc=0.9;net.trainParam.epochs=10000;net.trainParam. goal
4、=1e-3;% 网络训练net=init(net);net=train(net,pn,tn)%仿真测试s_bp=sim(net,kn)Out1=postmnmx(s_bp,mine,maxe) % BP神经网络的仿真结果%bp算法 预测值和真实值的比较figure(1)x=1:1:15y=1.1678 0.8617 0.7122 0.7339 0.9089 1.1972 1.5581 1.9512 2.3360 2.6719 2.9184 3.0350 2.9811 2.7163 2.2000;x1=linspace(1,15,100)y1=spline(x,y,x1)y2=spline(x,
5、out1,x1)plot(x,y,*,x1,y1,k,x,out1,p,x1,y2,r)gridtitle(bp算法预测值与实际值比较)xlabel(测试次数)ylabel(铁元素含量/ppm)legend(实际值,line1,预测值,line2)%计算bp算法的相对误差以及未来预测值a=abs(out1-e)for i=1:15 a1(i, 1)=a(1,i)/e(i, 1)enda2=sum(a1)/15q=1.1972 1.5581 1.9512 2.3360 2.6719 2.9184 3.0350 2.9811 2.7163 2.2000;qn,minq,maxq=premnmx(q
6、);w=sim(net,qn)w_bp=postmnmx(w,mine,maxe)% GA-BP神经网络R=size(p,1);S2=size(t, 1);S=R*S1+S1*S2+S1+S2;aa=ones(S,1)*-1,1;popu=100; % 种群规模initPpp=initiaIizega(popu,aa,gabpEval);%初始化种群gen=100;%遗传代数%调用GAOT工具箱,其中目标函数定义为gabpEvalx,endPop,bPop,trace=ga(aa,gabpEval, ,initPpp, 1e-6 1 1 ,maxGenTerm,gen,.normGeomSel
7、ect,0.09,arithXover,2,nonUnifMutation,2 gen 3);%绘均方误差变化曲线figure(2)plot(trace(:,1), 1 ./trace(:,3 ),r-);hold onplot(trace(:,1),1./trace(:,2),b-);xlabel(Generation);ylabel(Sum-Squared Error);%绘制适应度函数变化figure(3)plot(trace(:,1),trace(:,3),r-);hold onplot(trace(:,1),trace(:,2),b-);xlabel(Generation);ylab
8、el(Fittness);%计算最优的权值和阑值W1,B1,W2,B2,val=gadecod(x);net.IW1,1=W1;net.LW 2,1 =W2;net.b 1 =B1;net.b 2=B2;%利用新的权值和闭值进行训练net=train(net,pn,tn);%仿真测试s-ga=sim(net,kn);out2=postmnmx(s_ga,mine,maxe)%遗传优化后的仿真结果%ga算法预测值和真实值的比较figure(4)x=1:1:15y=1.1678 0.8617 0.7122 0.7339 0.9089 1 .1972 1.5581 1.9512 2.3360 2.6
9、719 2.9184 3.0350 2.9811 2.71632.2000;x1=linspace(1,15,100)y1=spline(x,y,x1)y2=spline(x,out2,x1)plot(x,y,*,x1,y1,b,x,out2,p,x1,y2,r)gridtitle(gabp算法预测值与实际值比较)xlabel(测试次数)ylabel(铁元素含量/PPm)legend(实际值,line 1,预测值,line2)%计算gabp算法的相对误差以及未来预测值b=abs(out2-e)for i=1:15 b1 (i,1)=b(1,i)/e(i,1)endb2=sum(b1)/ 15q
10、=1.1972 1.5581 1.9512 2.3360 2.6719 2.9184 2.9811 2.7163 2.2000;qn,minq,maxq=premnmx(q);w=sim(net,qn)w_ga=postmnmx(w,mine,maxe)附录程序源代码(备份) 以“永财”号为例,提供铁金属含量预测程序源代码x=1:1:18%铁元素含量18组历史数据y=5 4.4 5.8 6.4 3.1 1.8 5.9 2.9 8.9 8.8 5.9 2.6 1.7 6.1 3.2 0.7 2.4 2.2 x1=linspace(1,18,100)y1=spline(x,y,x1)plot(x,
11、y,*,x1,y1 ,b)xlabel(取样次数)ylabel(铁元素含量)% 声明全局变量global p % 训练集输入数据global t % 训练集输出数据global R % 输入神经元个数global S2 % 输出神经元个数global S1 % 隐层神经元个数global S % 编码长度% 导入数据S1=10% 输入和输出样本for i=1:75 p(i,1:10)=y1(i:i+9)endt=p(2:75,10) %原为t=p(2:75,10)% 数据归一化pn,minp,maxp,tn,mint,maxt = premnmx(p,t);% 测试数据for j=1:15 k
12、(j,1:10)=y1(j+75:j+84)ende=k(2:15,10) % 我个人添加的,未知正确与否。% 数据归一化kn,mink,maxk,en,mine,maxe=premnmx(k,e);% BP神经网络% 网络创建net=newff(minmax(pn),10,1, tansig,purelin ,trainlm);net.layers 1.initFcn=initwb;net.layers 2 .initFcn=initwb;net.inputWeights 1,1 .initFcn=rands;net.layerWeights 2,1.initFcn=rands;net.bi
13、ases 1,1.initFcn=rands;net.biases 2,1.initFcn=rands;% 设置训练参数net.trainParam.show=100;net.trainParam.lr=0.1;net.trainParam.mc=0.9;net.trainParam.epochs=10000;net.trainParam. goal=1e-3;% 网络训练net=init(net);net=train(net,pn,tn)%仿真测试s_bp=sim(net,kn)Out1=postmnmx(s_bp,mine,maxe) % BP神经网络的仿真结果%bp算法 预测值和真实值的比较figure(1)x=1:1:15y=1.1678 0.8617 0.7122 0.7339 0.9089 1.1972 1.5581 1.9512 2.3