MachineLearning Exercise 4 :Neural Networks Learning

nnCostFunction

消耗公式:

a1 = [ones(m,1) X];
z2 = a1*Theta1';
pre = sigmoid(a1*Theta1');
a2 = [ones(m,1) pre];
z3 = a2*Theta2';
a3 = sigmoid(z3);

y_vec = zeros(m,num_labels);
for i=1:m;
    y_vec(i,y(i)) = 1;
end

for i=1:m
    J = J + y_vec(i,:)*log(a3(i,:)')+(1-y_vec(i,:))*log(1-a3(i,:))';
end
J = (-1/m)*J;

% add regularized
J = J + (lambda/(2*m))*(sum(sum(Theta1(:,2:end).^2))+sum(sum(Theta2(:,2:end).^2)));

% back
Delta1 = zeros(size(Theta1));  
Delta2 = zeros(size(Theta2));  
for i=1:m,  
    delta3 = a3(i,:) - y_vec(i,:);  
    temp = (delta3*Theta2);
    delta2 = temp(:,2:end).*sigmoidGradient(z2(i,:));  

    Delta2 = Delta2 + delta3' * a2(i,:);  
      
    Delta1 = Delta1 + delta2' * a1(i,:);  
end;  
  
Theta2_grad = Delta2/m;  
Theta1_grad = Delta1/m;  
  
Theta2_grad(:,2:end) = Theta2_grad(:,2:end) + lambda * Theta2(:,2:end) / m;  
Theta1_grad(:,2:end) = Theta1_grad(:,2:end) + lambda * Theta1(:,2:end) / m;
  • 为了方便使用fminunc(),这里讲Theta1和Theta2展开组合成一个vector(nn_params=[Theta1(:);Theta2(:)]),在需要使用时使用reshape重构。
  • 初始化是,y是一个由0到9组成的向量,由于我们使用了sigmoid函数,需要将y转化成一个编码式的矩阵。
  • a1,a2,a3分别为各层激活值。
  • 对矩阵使用一次sum只是分别将行相加求和得到一个向量,因此在求消耗值时应该使用两次sum。
  • 没必要求delta1,因为第一层是我们的原始输入数据,不存在误差一说。

反向传播算法公式推导

反向传播算法的本质是利用链式求导法则,虽然神经网络求grad的公式一眼看不明白,但实质都是根据对 J 求导推导出来的,下面将给出一个大致的分析过程:

这是我们熟悉的cost函数,这里故意没有写求和符号,把各种角标丢掉,使公式清晰一些,而且也不影响推导过程。

我们假设有神经网络L层,那么对thetaL-1求导公式为:

上一层公式为:

从上边两个公式就可以看出,他们是有公共部分的,而这个公共部分就是我们的delta:

以此类推,之后的各层delta就有了:

把delta带入我们的求导公式中:

 

有了上面的解释,整个过程基本就比较明了了,让我们再仔细验证一番,首先从输出层开始,也就是练习的三层神经网络最后一层;

其中

然后我们将开头的cost函数变换为,对a(L)求导得:

由于a(L)=g(z),而g(z)就是我们的s函数,所以a(L)对z求导得:

这样就可以得到delta了:

终于,看到一丝曙光了,对于练习中的三层神经网络来说,delta3的值显而易见了:

z的值是theta*a,因此:

把上边的总结下,对于输出层,我们得到:

然后是隐藏层:

对于三层网络来说:

最后带入整合:

 

posted @ 2015-06-13 01:24  苹果妖  阅读(1376)  评论(0编辑  收藏  举报