神经网络用于模式分类

上传人:飞*** 文档编号:43305395 上传时间:2018-06-05 格式:DOC 页数:5 大小:40KB
返回 下载 相关 举报
神经网络用于模式分类_第1页
第1页 / 共5页
神经网络用于模式分类_第2页
第2页 / 共5页
神经网络用于模式分类_第3页
第3页 / 共5页
神经网络用于模式分类_第4页
第4页 / 共5页
神经网络用于模式分类_第5页
第5页 / 共5页
亲,该文档总共5页,全部预览完了,如果喜欢就下载吧!
资源描述

《神经网络用于模式分类》由会员分享,可在线阅读,更多相关《神经网络用于模式分类(5页珍藏版)》请在金锄头文库上搜索。

1、% BP 神经网络用于模式分类 % 使用平台 - Matlab6.5 % 作者:陆振波,海军工程大学 % 欢迎同行来信交流与合作,更多文章与程序下载请访问我的个人主页 % 电子邮件: % 个人主页:http:/clc clear close all%- % 产生训练样本与测试样本,每一列为一个样本P1 = rand(3,5),rand(3,5)+1,rand(3,5)+2; T1 = repmat(1;0;0,1,5),repmat(0;1;0,1,5),repmat(0;0;1,1,5);P2 = rand(3,5),rand(3,5)+1,rand(3,5)+2; T2 = repmat(

2、1;0;0,1,5),repmat(0;1;0,1,5),repmat(0;0;1,1,5);%- % 归一化PN1,minp,maxp = premnmx(P1); PN2 = tramnmx(P2,minp,maxp);%- % 设置网络参数NodeNum = 10; % 隐层节点数 TypeNum = 3; % 输出维数TF1 = tansig;TF2 = purelin; % 判别函数(缺省值)%TF1 = tansig;TF2 = logsig; %TF1 = logsig;TF2 = purelin; %TF1 = tansig;TF2 = tansig; %TF1 = logsi

3、g;TF2 = logsig; %TF1 = purelin;TF2 = purelin;net = newff(minmax(PN1),NodeNum TypeNum,TF1 TF2);%- % 指定训练参数% net.trainFcn = traingd; % 梯度下降算法 % net.trainFcn = traingdm; % 动量梯度下降算法% % net.trainFcn = traingda; % 变学习率梯度下降算法 % net.trainFcn = traingdx; % 变学习率动量梯度下降算法 % % (大型网络的首选算法 - 模式识别) % net.trainFcn =

4、 trainrp; % RPROP(弹性 BP)算法,内存需求最小 % % 共轭梯度算法 % net.trainFcn = traincgf; % Fletcher-Reeves 修正算法 % net.trainFcn = traincgp; % Polak-Ribiere 修正算法,内存需求比 Fletcher-Reeves 修正算法略大 % net.trainFcn = traincgb; % Powell-Beal 复位算法,内存需求比 Polak-Ribiere 修 正算法略大 % (大型网络的首选算法 - 函数拟合,模式识别) % net.trainFcn = trainscg; %

5、 Scaled Conjugate Gradient 算法,内存需求与 Fletcher-Reeves 修正算法相同,计算量比上面三种算法都小很多 % % net.trainFcn = trainbfg; % Quasi-Newton Algorithms - BFGS Algorithm,计算量 和内存需求均比共轭梯度算法大,但收敛比较快 % net.trainFcn = trainoss; % One Step Secant Algorithm,计算量和内存需求均比 BFGS 算法小,比共轭梯度算法略大% % (中小型网络的首选算法 - 函数拟合,模式识别) net.trainFcn =

6、trainlm; % Levenberg-Marquardt 算法,内存需求最大,收敛速度最快% % net.trainFcn = trainbr; % 贝叶斯正则化算法% % 有代表性的五种算法为:traingdx,trainrp,trainscg,trainoss, trainlm%-%net.trainParam.show = 1; % 训练显示间隔 net.trainParam.lr = 0.3; % 学习步长 - traingd,traingdm net.trainParam.mc = 0.95; % 动量项系数 - traingdm,traingdx net.trainParam.

7、mem_reduc = 10; % 分块计算 Hessian 矩阵(仅对 Levenberg-Marquardt 算法有效) net.trainParam.epochs = 1000; % 最大训练次数 net.trainParam.goal = 1e-8; % 最小均方误差 net.trainParam.min_grad = 1e-20; % 最小梯度 net.trainParam.time = inf; % 最大训练时间%- % 训练与测试net = train(net,PN1,T1); % 训练%- % 测试Y1 = sim(net,PN1); % 训练样本实际输出 Y2 = sim(n

8、et,PN2); % 测试样本实际输出Y1 = full(compet(Y1); % 竞争输出Y2 = full(compet(Y2); %- % 结果统计Result = sum(abs(T1-Y1) % 正确分类显示为 1 Percent1 = sum(Result)/length(Result) % 训练样本正确分类率Result = sum(abs(T2-Y2) % 正确分类显示为 1 Percent2 = sum(Result)/length(Result) % 测试样本正确分类率*% BP 神经网络用于函数拟合 % 使用平台 - Matlab6.5 % 作者:陆振波,海军工程大学

9、% 欢迎同行来信交流与合作,更多文章与程序下载请访问我的个人主页 % 电子邮件: % 个人主页:http:/clc clear close all%- % 产生训练样本与测试样本P1 = 1:2:200; % 训练样本,每一列为一个样本 T1 = sin(P1*0.1); % 训练目标P2 = 2:2:200; % 测试样本,每一列为一个样本 T2 = sin(P2*0.1); % 测试目标%- % 归一化PN1,minp,maxp,TN1,mint,maxt = premnmx(P1,T1); PN2 = tramnmx(P2,minp,maxp); TN2 = tramnmx(T2,min

10、t,maxt);%- % 设置网络参数NodeNum = 20; % 隐层节点数 TypeNum = 1; % 输出维数TF1 = tansig;TF2 = purelin; % 判别函数(缺省值)%TF1 = tansig;TF2 = logsig; %TF1 = logsig;TF2 = purelin; %TF1 = tansig;TF2 = tansig; %TF1 = logsig;TF2 = logsig; %TF1 = purelin;TF2 = purelin;net = newff(minmax(PN1),NodeNum TypeNum,TF1 TF2);%- % 指定训练参

11、数% net.trainFcn = traingd; % 梯度下降算法 % net.trainFcn = traingdm; % 动量梯度下降算法% % net.trainFcn = traingda; % 变学习率梯度下降算法 % net.trainFcn = traingdx; % 变学习率动量梯度下降算法 % % (大型网络的首选算法) % net.trainFcn = trainrp; % RPROP(弹性 BP)算法,内存需求最小 % % 共轭梯度算法 % net.trainFcn = traincgf; % Fletcher-Reeves 修正算法 % net.trainFcn =

12、 traincgp; % Polak-Ribiere 修正算法,内存需求比 Fletcher-Reeves 修正算法略大 % net.trainFcn = traincgb; % Powell-Beal 复位算法,内存需求比 Polak-Ribiere 修 正算法略大 % (大型网络的首选算法) %net.trainFcn = trainscg; % Scaled Conjugate Gradient 算法,内存需求与 Fletcher-Reeves 修正算法相同,计算量比上面三种算法都小很多 % % net.trainFcn = trainbfg; % Quasi-Newton Algori

13、thms - BFGS Algorithm,计算量 和内存需求均比共轭梯度算法大,但收敛比较快 % net.trainFcn = trainoss; % One Step Secant Algorithm,计算量和内存需求均比 BFGS 算法小,比共轭梯度算法略大% % (中型网络的首选算法) net.trainFcn = trainlm; % Levenberg-Marquardt 算法,内存需求最大,收敛速度最快% % net.trainFcn = trainbr; % 贝叶斯正则化算法% % 有代表性的五种算法为:traingdx,trainrp,trainscg,trainoss, trainlm%-%net.trainParam.show = 20; % 训练显示间隔 net.trainParam.lr = 0.3; % 学习步长 - traingd,traingdm net.trainParam.mc = 0.95; % 动量项系数 - traingdm,traingdx net.trainParam.mem_reduc = 1; % 分块计算 Hess

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 行业资料 > 其它行业文档

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号