训练样本 输入样本:x=[1 0 0; 0 1 0; 0 0 1]; 输出样本:y=[1 0; 0 0.5; 0 1];
测试样本:x=[0.97,0.001,0.001; 0,0.98,0; 0.002,0 ,1.04; 0.5,0.5,0.5; 1,0,0; 0,1,0; 0,0,0]
%‘3-6-2’结构的BP神经网络训练
clc;
clear all;
close all;
xite=0.5;%学习速率
alfa=0.05;%动量因子
%……………………………………初始化………………………………%
w1=rands(3,6);%初始化输入层到隐含层的权值w1,3×6矩阵
w1_1=w1;%初始化k时刻隐含层到输出层的权值w1_1
w1_2=w1;%初始化k-1时刻隐含层到输出层的权值w1_2
dw1=0*w1;%初始化Δw1
w2=rands(6,2);%初始化隐含层到输出层的权值w2,6×2矩阵
w2_1=w2; %初始化k时刻隐含层到输出层的权值w2_1
w2_2=w2_1;%初始化k-1时刻隐含层到输出层的权值w2_2
I=[0 0 0 0 0 0]';%初始化输入层的输出,即隐含层的输入
Iout=[0 0 0 0 0 0]';%初始化隐含层的输出,即输出层的输入
FI=[0 0 0 0 0 0]';%初始化隐含层函数的函数的求导
%……………………………………初始化………………………………%
OUT=2;
k=0;
E=1.0;
NS=3;
xs=[1 0 0; %输入样本
0 1 0;
0 0 1];
ys=[1 0; %输出样本
0 0.5;
0 1];
while E>1e-5
k=k+1;
times(k)=k;
for s=1:1:NS
x=xs(s,:);
for j=1:1:6
I(j)=x*w1(:,j);%输入层输出
Iout(j)=1/(1+exp(-I(j)));%隐含层输出,激活函数采用Sigmoid函数
end
yl=w2'*Iout %输出层实际输出
yl=yl';
el=0;
y=ys(s,:);
for l=1:1:OUT
el=el+0.5*(y(l)-yl(1))^2; %第P个样本的误差求和:E=0.5∑el,即向量P输出的2范数平方的1/2
end
es(s)=el;
E=0;
if s==NS
for s=1:1:NS
E=E+es(s);%所有3个样本输出的误差求和
end
end
ey=y-yl;%理想输出和实际输出的误差
w2=w2_1+xite*Iout*ey+alfa*(w2_1-w2_2);%更新隐含层到输出层的权值
for j=1:1:6
S=1/(1+exp(-I(j)));
FI(j)=S*(1-S);%激活函数求导
end
for i=1:1:3
for j=1:1:6
dw1(i,j)=xite*FI(j)*x(i)*(ey(1)*w2(j,1)+ey(2)*w2(j,2));%求Δw1
end
end
w1=w1_1+dw1+alfa*(w1_1-w1_2);%更新w1
w1_2=w1_1;%w1(k-1)更新
w1_1=w1;%w1(k)更新
w2_2=w2_1;%w2(k-1)更新
w2_1=w2;%w2(k)更新
end %结束for循环
Ek(k)=E;
end %结束while循环
figure(1);
plot(times,Ek,'r');
xlabel('k');
ylabel('E');
save wfile w1 w2;%保存训练好的权值w1,w2
测试:
%BP Test
clear all;
close all;
x=[0.97,0.001,0.001;
0,0.98,0;
0.002,0 ,1.04;
0.5,0.5,0.5;
1,0,0;
0,1,0;
0,0,0];
for i=1:1:7
for j=1:1:6
I(i,j)=x(i,:)*w1(:,j);
Iout(i,j)=1/(1+exp(-I(i,j)));
end
end
y=w2'*Iout';
y=y';
|