3-7 神经网络的梯度下降

神经网络的梯度下降 ( Gradient descent for neural networks)

对于一个两层神经网络,输入参数:${W^{[1]}}$, ${b^{[1]}}$, ${W^{[2]}}$, ${b^{[2]}}$,输入特征个数${n_x}$,隐藏层结点的个数${n^{[1]}}$,输出层的结点个数${n^{[2]}} $,输入结点个数${n^{[0]}} $。

${W^{[1]}}$的维度就是(${n^{[1]}}$, ${n^{[0]}}$),${b^{[1]}}$就是${n^{[1]}}$维向量,可以写成(${n^{[1]}}$, 1),就是一个列向量。

${W^{[1]}}$的维度就是(${n^{[2]}}$, ${n^{[1]}}$),${b^{[1]}}$就是${n^{[1]}}$维向量,可以写成(${n^{[2]}}$, 1),就是一个列向量。

假设做的是logistic回归,那么损失函数可以表示为:

正向传播过程:

参数更新过程:

反向传播过程:

posted @ 2018-08-24 12:59  刘-皇叔  阅读(1166)  评论(0编辑  收藏  举报