摘要: 1、 最优化形象解读 2、 梯度下降 学习率: 3、 反向传播 4、 神经网络 Sigmoid激活函数(已经被ReLU激活函数替代) ReLU激活函数 最后通过代码比较下面的结果: (数据展示结果) 代码如下: import numpy as np import matplotlib.pyplot 阅读全文
posted @ 2018-06-13 20:12 知晓的老巢 阅读(588) 评论(1) 推荐(0) 编辑