神经网络训练过程

 

Cost Function:

 前向传播(Forward propagation)

反向传播(Back propagation)

 对于反向传播算法最直观的表示就是对于每个节点都计算这样一项(误差项):

计算完每个节点的误差之后我们便可以得到损失函数对于所有参数的偏导数

注:这里忽略了正则化项。(aj看成xj

直观表示:

 

 

 算法流程:

 

Δ为所有样本的一个矩阵:

 

:正则化项。

 

 随机初始化参数

    对于所有的参数我们必须初始化它们的值,而且它们的初始值不能设置成一样,比如都设置成0或1。如果设置成一样那么所有的a,δ,偏导,所有更新后参数等都会相等。即所有神经元的功能都相等,造成了高度冗余。所以我们必须随机化初始参数。

例如:

 

表示初始化了一个10*11的参数矩阵,且每个参数都属于[-ε, ε]

 

posted on 2017-07-25 22:53  J_K_Guo  阅读(342)  评论(0编辑  收藏  举报