摘要: bp(back propagation)修改每层神经网络向下一层传播的权值,来减少输出层的实际值和理论值的误差 其实就是训练权值嘛 训练方法为梯度下降法 其实就是高等数学中的梯度,将所有的权值看成自变量,误差E作为因变量 即E=f(w1,w2,w3,....,wk)//这些w就是每一层向下一层转移的 阅读全文
posted @ 2019-06-01 20:36 OFFBYONEBUG 阅读(281) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/fanxin_i/article/details/80212906 看了这么多就这个推的清楚,转嘞 阅读全文
posted @ 2019-06-01 15:39 OFFBYONEBUG 阅读(145) 评论(0) 推荐(0) 编辑