Lecture 1 -- Backpropagation

1. 从一个简单的例子开始


 A图中可以看到:

(1) $\displaystyle\frac{\partial C}{\partial z_1}=\left( \displaystyle\frac{\partial C}{\partial z_2}w_3+\displaystyle\frac{\partial C}{\partial z_3}w_4 \right) \sigma '\left( z_1 \right)$,其计算过程可以认为是一个反向的神经网络,其输入分别是$\displaystyle\frac{\partial C}{\partial z_2}$和$\displaystyle\frac{\partial C}{\partial z_3}$,激活函数是$\sigma '\left( z_1 \right)$(常数),输出为$\displaystyle\frac{\partial C}{\partial z_1}$,如图B所示。

(2) $\displaystyle\frac{\partial z_1}{\partial w_1}=x_1$,其可以推广为:任意的$\displaystyle\frac{\partial z}{\partial w}$,其值为z对应的神经元前以w权重相连的神经元的激活值a,如图C所示。

 

 

2. 总结


  • 两个阶段:Forward PassBackward Pass,分别对应求两种不同的偏微分!

  • Backward Pass就是通过反向neural network的过程!注意输入,输出,激活函数分别是什么?

 

 


END
posted @ 2023-07-16 13:13  Peg_Wu  阅读(14)  评论(0编辑  收藏  举报