摘要: 转载链接:https://www.jianshu.com/p/3f35e555d5ba 1.为什么使用梯度下降来优化神经网络参数? 反向传播(用于优化神网参数):根据损失函数计算的误差通过反向传播的方式,指导深度网络参数的更新优化。 采取反向传播的原因:首先,深层网络由许多线性层和非线性层堆叠而来, 阅读全文
posted @ 2019-12-05 16:17 simpleDi 阅读(816) 评论(0) 推荐(0) 编辑
摘要: 转载链接:https://blog.csdn.net/weixin_38347387/article/details/82936585 反向传播法其实是神经网络的基础了,但是很多人在学的时候总是会遇到一些问题,或者看到大篇的公式觉得好像很难就退缩了,其实不难,就是一个链式求导法则反复用。如果不想看公 阅读全文
posted @ 2019-12-05 16:07 simpleDi 阅读(5742) 评论(0) 推荐(0) 编辑