模型的训练
BP网络的训练就是通过应用误差反传原理不断调整网络权值使网络模型输出值与已知的训练样本输出值之间的误差平方和达到最小或小于某一期望值。
训练模型
训练方法 | 训练函数 |
---|
梯度下降法 | traingd | 有动量的梯度下降法 | traingdm | 自适应lr梯度下降法 | traingda | 自适应lr动量梯度下降法 | traingdx | 弹性梯度下降法 | trainrp | Fletcher-Reeves共轭梯度法 | traincgf | Ploak-Ribiere共轭梯度法 | traincgp | Powell-Beale共轭梯度法 | traincgb | 量化共轭梯度法 | trainscg | 拟牛顿算法 | trainbfg | 一步正割算法 | trainoss | Levenberg-Marquardt | trainlm |
BP网络的构建
- 生成BP网络
net=newff(PR,[S1 S2 ... SNl],{TF1 TF2 ... TFNl},BTF)
PR : 由R维的输入样本最小最大值构成的R*2维矩阵 [S1 S2 ... SNl] :各层的神经元个数 {TF1 TF2 ... TFNl} :各层的神经元传递函数
- 网络训练
net=train(net,P,T)
P:标准输入 T:标准输出
- 网络仿真
Y2=sim(net,P2)
代码示例
pn=p1';tn=t1';
[m,n]=size(t);
[pn,minp,maxp,tn,mint,maxt]=premnmx(p,t);%归一化
net=newff(pn,[5,1],{'tansig','purelin'},'traingd'); %设置网络,建立相应的BP网络,底层神经元个数5,输出神经元个数1,输入到隐藏的激活函数tansig,隐藏到输入到purelin,训练函数traingd
net.trainParam.show=50; % 训练网络,每隔50步展现下算法
net.trainParam.lr=0.01; %学习率0.01
net.trainParam.epochs=1000; %训练1000步(训练停止方式:epochs和goal)
net.trainParam.goal=1e-5;
[net,tr]=train(net ,pn,tn);%得到结果
anewn=sim(net,ps); %对BP网络进行仿真
figure;hold on
plot(anewn,'b',tn,'r');
wucha=sum(abs(b-r))/n;%误差输出
%traingd
clear;
clc;
P=[-1 -1 2 2 4;0 5 0 5 7];%输入
T=[-1 -1 1 1 -1];%输出 输入到矩阵——行代表因子 列代表样本(数量)
%利用minmax函数求输入样本范围
net = newff(minmax(P),[7,1],{'tansig','purelin'},'trainlm');
net.trainParam.show=50;%
net.trainParam.lr=0.05;
net.trainParam.epochs=1000;
net.trainParam.goal=1e-5;
[net,tr]=train(net,P,T);
net.iw{1,1}%隐层权值
net.b{1}%隐层阈值
net.lw{2,1}%输出层权值
net.b{2}%输出层阈值
y3=sim(net,P);
|