摘要: 参考:https://www.cnblogs.com/pinard/p/10750718.html ##雅可比矩阵 阅读全文
posted @ 2020-11-13 17:26 小帆敲代码 阅读(64) 评论(0) 推荐(0) 编辑
摘要: 参考:https://www.cnblogs.com/pinard/p/6422831.html ##为什么要用到反向传播 我们的目的是得到每一个神经元的w和b。这个参数的获取一般是通过梯度下降算法得到的。因此我们需要设置损失函数,使损失函数到达最小。这个过程就是反向传播算法。 求得损失函数最小那么 阅读全文
posted @ 2020-11-13 17:25 小帆敲代码 阅读(121) 评论(0) 推荐(0) 编辑
摘要: 参考:https://www.cnblogs.com/pinard/p/6418668.html ##基本结构 ###局部看 输出和输入之间学习到一个线性关系,得到中间输出结果: 接着是一个神经元激活函数: 也可以是别的激活函数:Sigmoid函数、tanx, softmax,和ReLU等 ###宏 阅读全文
posted @ 2020-11-13 17:11 小帆敲代码 阅读(111) 评论(0) 推荐(0) 编辑