摘要:
bp(back propagation)修改每层神经网络向下一层传播的权值,来减少输出层的实际值和理论值的误差 其实就是训练权值嘛 训练方法为梯度下降法 其实就是高等数学中的梯度,将所有的权值看成自变量,误差E作为因变量 即E=f(w1,w2,w3,....,wk)//这些w就是每一层向下一层转移的 阅读全文
摘要:
https://blog.csdn.net/fanxin_i/article/details/80212906 看了这么多就这个推的清楚,转嘞 阅读全文