摘要: 反向传播练习 现在你来实现一个通过反向传播训练的神经网络,数据集就是之前的研究生院录取数据。通过前面所学你现在有能力完成这个练习: 你的目标是: 实现一个正向传播 实现反向传播算法 更新权重 import numpy as np from data_prep import features, tar 阅读全文
posted @ 2018-04-27 17:03 未完代码 阅读(549) 评论(0) 推荐(0) 编辑
摘要: 反向传播 如何让多层神经网络学习呢?我们已了解了使用梯度下降来更新权重,反向传播算法则是它的一个延伸。以一个两层神经网络为例,可以使用链式法则计算输入层-隐藏层间权重的误差。 要使用梯度下降法更新隐藏层的权重,你需要知道各隐藏层节点的误差对最终输出的影响。每层的输出是由两层间的权重决定的,两层之间产 阅读全文
posted @ 2018-04-27 16:59 未完代码 阅读(236) 评论(0) 推荐(0) 编辑
摘要: 实现隐藏层 先修要求 接下来我们会讲神经网络在多层感知器里面的数学部分。讲多层感知器我们会用到向量和矩阵。你可以通过下列讲解对此做个回顾: 可汗学院的 向量入门. 可汗学院的 矩阵入门. 由来 之前我们研究的是只有一个输出节点网络,代码也很直观。但是现在我们有多个输入单元和多个隐藏单元,它们的权重需 阅读全文
posted @ 2018-04-27 16:30 未完代码 阅读(319) 评论(0) 推荐(0) 编辑
摘要: 实现梯度下降 现在我们知道了如何更新我们的权重: 你看到的是如何实现一次更新,那我们如何把代码转化为能够计算多次权重更新,使得我们的网络能够真正学习呢? 作为示例,我们拿一个研究生学院录取数据,用梯度下降训练一个网络。数据可以在这里找到。数据有三个输入特征:GRE 分数、GPA 分数和本科院校排名( 阅读全文
posted @ 2018-04-27 13:50 未完代码 阅读(577) 评论(0) 推荐(0) 编辑