2020年3月2日

Recurrent neural network(RNN) 循环神经网络 (下)

摘要: 有了这个loss function以后,对于training,也是用梯度下降来做。也就是说我们现在定义出了loss function(L),我要update这个neural network里面的某个参数w,就是计算对w的偏微分, 偏微分计算出来以后,就用GD的方法去update里面的参数。在讲fee 阅读全文

posted @ 2020-03-02 14:44 cltt 阅读(531) 评论(0) 推荐(0) 编辑

导航