MATLAB神经网络工具箱及实验要求

上传人:飞*** 文档编号:48603845 上传时间:2018-07-18 格式:PPT 页数:39 大小:692KB
返回 下载 相关 举报
MATLAB神经网络工具箱及实验要求_第1页
第1页 / 共39页
MATLAB神经网络工具箱及实验要求_第2页
第2页 / 共39页
MATLAB神经网络工具箱及实验要求_第3页
第3页 / 共39页
MATLAB神经网络工具箱及实验要求_第4页
第4页 / 共39页
MATLAB神经网络工具箱及实验要求_第5页
第5页 / 共39页
点击查看更多>>
资源描述

《MATLAB神经网络工具箱及实验要求》由会员分享,可在线阅读,更多相关《MATLAB神经网络工具箱及实验要求(39页珍藏版)》请在金锄头文库上搜索。

1、MATLAB神经网络工具箱 介绍及实验要求神经元模型Neuron Model: 多输入,单输出,带偏置 输入:R维列向量 权值:R维行向量阈值:标量 求和单元 传递函数 输出常用传递函数aWp-b1-1u阈值函数MATLAB函数: hardlimMATLAB函数: hardlims线性函数uPurelin Transfer Function :anMATLAB函数: purelinSigmoid函数uSigmoid Function :u特性: 值域a(0,1)非线性,单调性 无限次可微 |n|较小时可近似线性 函数 |n|较大时可近似阈值 函数MATLAB函数: logsig(对数), ta

2、nsig(正切)对数Sigmoid函数正切Sigmoid函数单层神经网络模型R维输入, S个神经元的单层神经网络模型多层神经网络模型前馈神经网络u前馈神经网络(feed forward NN):各神经元 接受前级输入,并输出到下一级,无反馈, 可用一有向无环图表示。u前馈网络通常分为不同的层(layer),第i层的 输入只与第i-1层的输出联结。u可见层:输入层(input layer)和输出层(output layer)u隐藏层(hidden layer) :中间层感知器(perceptron):u 单层前馈网络u 传递函数为阈值函数u主要功能是模式分类感知器的生成函数newp用来生成一个感

3、知器神经网络net = newp( pr, s, tf, lf ) net: 函数返回参数,表示生成的感知器网络 pr: 一个R2矩阵, 由R维输入向量的每维最小值和最大值组成 s: 神经元的个数 tf: 感知器的传递函数, 默认为hardlim, 可选hardlims lf: 感知器的学习函数,默认为learnp, 可选learnpnnet = newp(-2,+2;-2,+2,2) %生成一个二维输入,两个神经元的感知器newp感知器的权值和阈值初始化p newp默认权值和阈值为零(零初始化函数initzero).net = newp(-2,+2;-2,+2,2); W=net.IW1,1

4、 %显示网络的权值b=net.b1 %显示网络的阈值W =0 00 0b =0 0 p 改变默认初始化函数为随机函数randsnet.inputweights1,1.initFcn = rands; net.biases1.InitFcn = rands;net =init(net); %重新初始化p 直接初始化定义权值和阈值net.IW1,1=1 2; net.b1=1感知器学习u感知器学习算法权值增量: 阈值增量: 权值更新: 阈值更新: u算法改进输入样本归一化权值和阈值训练与学习函数trainnet=train(net, P, T)设计好的感知器并不能马上投入使用. 通过样本训练, 确

5、定感知器的权值和阈值.输入向量目标向量被训练网络net.trainParam.epochs=10 ; %预定的最大训 练次数为10, 感知器经过最多训练10次后停止,adaptnet=adapt(net, P, T)自适应训练函数权值和阈值学习函数learnpdW=learnp(W,P,Z,N,A,T,E,D,gW,gA,LP,LS)dW:权值或阈值的增量矩阵 W:权值矩阵或阈值向量 P:输入向量 T:目标向量 E:误差向量其他可以忽略,设为 learnpn归一化学习函数网络仿真函数sima = sim(net, P)输入向量网络输出 分类结果显示绘图函数plotpvplotpv(P,T)pl

6、otpcplotpc(W,b)画输入向量的图像画分类线根据给定的样本输入向量P和目标向量T, 以及需分 类的向量组Q, 创建一个感知器, 对其进行分类. 例: 创建一个感知器P=-0.5 -0.6 0.7;0.8 0 0.1; %已知样本输入向量T=1 1 0; % 已知样本目标向量net=newp(-1 1;-1 1,1); %创建感知器handle=plotpc(net.iw1,net.b1); %返回划线的句柄net.trainParam.epochs=10; % 设置训练最大次数net=train(net,P,T); %训练网络Q=0.6 0.9 -0.1;-0.1 -0.5 0.5;

7、 %已知待分类向量Y=sim(net,Q); % 二元分类仿真结果 figure; % 新建图形窗口plotpv(Q,Y); % 画输入向量handle=plotpc(net.iw1,net.b1,handle) %画分类线实验一 利用感知器进行分类(1) 一个经过训练的感知器对5个输入向量进行分类(2类)。 Step 1两个长度为5的向量构成输入样本矩阵P,行向量T为目标向量。利用PLOTPV画 出这个向量的图像。例如:P = -0.5 -0.5 +0.3 -0.1 -4; -0.5 +0.5 -0.5 +1.0 5;T = 1 1 0 0 1;plotpv(P,T); % plotpv函数

8、利用感知器的输入向量和目标向量来画输入向量的图像Step 2建立神经网络 画输入向量的图像 MATLAB提供函数newp来创建一个指定的感知器。第一个参数指定了期望 的两个输入向量的取值范围,第二个参数指定了只有一个神经元。net = newp(-40 1;-1 50,1);注意:这个神经元的传递函数是hardlim函数,也就是阶跃函数。取0,1两个值 。Hardlims函数,取-1,1两个值。实验一 利用感知器进行分类(2) 添加神经元的初始化值到分类图 Step3初始化的权值被设为0,因此任何输入都会给出同样的输出,并且分类线不会 出现在这个图中,不用害怕,我们会继续训练这个神经网。hol

9、d on linehandle = plotpc(net.IW1,net.b1); /plotpc函数用来画分类线 训练神经网络 Step4Matlab提供了adapt函数来训练感知器,adapt函数返回一个新的能更好的执 行分类、网络的输出、和误差的神经网络,这个划线函数允许网络从3个角度去调 整,画分类线一直到误差为0为止。E = 1; /E为误差net.adaptParam.passes = 3; /决定在训练过程中重复次数while (sse(E) /sse函数是用来判定误差E的函数net,Y,E = adapt(net,P,T); /利用输入样本调节神经网netlinehandle

10、= plotpc(net.IW1,net.b1,linehandle);/ /画出调整以后的分类线drawnow; /延迟一段时间end实验一 利用感知器进行分类(3) Step 5 模拟simsim函数能被用来划分任何别的输入向量,例如划分一个输入向量0.7; 1.2.这个新点的图像为红色,他将用来显示这个感知器如何把这个新点从 最初的训练集取分开来。p = 0.7; 1.2;a = sim(net,p); /利用模拟函数sim计算出新输入p的神经网络的输出plotpv(p,a);circle = findobj(gca,type, line);set(circle,Color,red);打

11、开hold,以便于以前的图像不被删除。增加训练装置和分类线在图中。hold on; plotpv(P,T); plotpc(net.IW1,net.b1); hold off; axis(-2 2 -2 2);这个感知器正确的区分了我们的新点(用红色表示)作为”zero”类(用圆圈表示),而 不是”one”类(用+号表示),尽管需要比较长的训练时间,这个感知器仍然适当的进行 了学习。最后放大感兴趣的区域BP网络l 多层前馈网络l 主要功能: 函数逼近, 模式识别, 信息分类,数据压缩l 传递函数:隐层采用S形函数,输出层S形函数或线性函数BP网络的生成newff函数newff用来生成一个BP网

12、络net=newff(PR,S1 S2.SN,TF1 TF2. TFN,BTF,BLF,PF)PR: 一个R2矩阵, 由R维输入向量的每维最小值和最大值组成Si: 第i层的神经元个数TFi: 第i层的传递函数, 默认为tansigBTF: 训练函数, 默认为trainlmBLF: 学习函数, 默认为learngdmPF: 性能函数, 默认为mse net=newff(0,10;-1,2,5,1,tansig,purelin,trainlm);%生成一个两层BP网络,隐层和输出层神经的个数为5和1, 传递函数分别为 tansig和purelin, 训练函数为trainlm, 其他默认BP网络的初

13、始化newff 函数在建立网络对象的同时, 自动调用初始化函数, 根据缺省的参数对网络的连接权值和阈值.使用函数init可以对网络进行自定义的初始化. 通过选择 初始化函数, 可对各层连接权值和阈值分别进行不同的初始 化.BP网络的学习规则权值和阈值的调节规则采用误差反向传播算法(back propagation). 反向 传播算法分二步进行,即正向传播和反向传播。 1正向传播输入的样本从输入层经过隐单元一层一层进行处理,通过所有的隐层 之后,则传向输出层;在逐层处理的过程中,每一层神经元的状态只对 下一层神经元的状态产生影响。在输出层把现行输出和期望输出进行比 较,如果现行输出不等于期望输出

14、,则进入反向传播过程。2反向传播反向传播时,把误差信号按原来正向传播的通路反向传回,并对每个 隐层的各个神经元的权系数进行修改,以望误差信号趋向最小。BP算法实质是求取误差函数的最小值问题 。这种算法采用 非线性规划中的最速下降方法,按误差函数的负梯度方向 修改权系数。BP网络的快速学习算法与选择学习算法适用问题类 型收敛性能占用存储空间其他特点trainlm函数拟合收敛快,误差小大性能随网络规 模 增大而变差trainrp模式分类收敛最快较小性能随网络训练 误差减小而变差trainscg函数拟合 模式分类收敛较 快 性能稳定中等尤其适用于网络 规模较大的情况trainbfg函数拟合收敛较 快较大计算量岁网络规 模的增大呈几何 增长traingdx模式分类收敛较 慢较小适用于提前停止 的方法MATLAB神经网络工具箱对常规BP算法进行改进,提供 了一系列快速算法,以满足不同问题的需要BP网络的训练利用已知的”输入目标”样本向量数据对网络进行训练 ,采用train 函数来完成. 训练之前, 对训练参数进行设置训练参数 参数含义 默认值net.trainParam.epochs训练 步数100net.trainParam.show

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 商业/管理/HR > 其它文档

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号