以下是部分代码:
HiddenUnitNum=10;%隐节点数
    MaxEpochs=100;%最大训练次数
    lr=0.1;%学习率
    E0=0.01;%目标误差
    W1=0.2*rand(HiddenUnitNum,InDim)-0.1;
    B1=0.2*rand(HiddenUnitNum,1)-0.1;
    W2=0.2*rand(OutDim,HiddenUnitNum)-0.1;
    B2=0.2*rand(OutDim,1)-0.1;
    W1Ex=[W1 B1];
    W2Ex=[W2 B2];
    SamInEx=[SamIn' ones(SamNum,1)]';
    ErrHistory=[];
    for i=1:MaxEpochs %正向传播计算网络输出
        HiddenOut=logsig(W1Ex*SamInEx);
        HiddenOutEx=[HiddenOut' ones(SamNum,1)]';
        NetworkOut=logsig(W2Ex*HiddenOutEx);
        % 停止学习判断
        Error=SamOut-NetworkOut;
        SSE=sumsqr(Error)
        %记录每次权值调整后的训练误差
        ErrHistory=[ErrHistory,SSE];
        if SSE<E0,break,end
        %计算反向传播误差
        Delta2=Error.*NetworkOut.*(1-NetworkOut);
        Delta1=W2'*Delta2.*HiddenOut.*(1-HiddenOut);
        %计算权值调节量
        dW2Ex=Delta2*HiddenOutEx';
        dW1Ex=Delta1*SamInEx';
        %权值调节
        W1Ex=W1Ex+lr*dW1Ex;
        W2Ex=W2Ex+lr*dW2Ex;
        W2=W2Ex(:,1:HiddenUnitNum);
    end
    W1=W1Ex(:,1:InDim);
    B1=W1Ex(:,InDim+1);
    W2=W2Ex(:,1:HiddenUnitNum);
    B2=W2Ex(:,HiddenUnitNum+1);
我的问题:这个学习训练代码有没有问题??如果有,问题是什么?
我自己比较疑惑的是:%计算反向传播误差
        Delta2=Error.*NetworkOut.*(1-NetworkOut);
        Delta1=W2'*Delta2.*HiddenOut.*(1-HiddenOut);
标准的BP算法在计算反向传播误差的时候,要用到激活函数的导数来求(在以前会这样写deltak=deltalin(Ok,E);%计算输出层的delta
deltai=deltatan(Oi,deltak,Wki);%计算隐含层的deita
但是deltalin和deltatan都是旧版本的导函数),我以上自己的写法求反向误差对不对啊(就是 Delta2=Error.*NetworkOut.*(1-NetworkOut);
        Delta1=W2'*Delta2.*HiddenOut.*(1-HiddenOut);如果对,里面为什么没有导函数),恳请高手指教!!!!