上一页 1 ··· 7 8 9 10 11 12 13 14 15 ··· 19 下一页
摘要: 回想一下,神经网络的代价函数是: 如果我们考虑简单的非多类分类(k=1)和无视正规化,则计算成本: 更正式地说,delta值实际上是成本函数的导数: 回想一下,我们的导数是与成本函数相切的直线的斜率,所以斜率越陡,我们就越不正确。让我们考虑下面的神经网络在看我们如何计算一些: 阅读全文
posted @ 2017-08-09 16:28 郑哲 阅读(163) 评论(0) 推荐(0) 编辑
摘要: “反向传播”是最小化成本函数的神经网络术语,就像我们在logistic回归和线性回归中的梯度下降一样。我们的目标是计算: 也就是说,我们希望在θ中使用一组最优参数来最小化我们的成本函数j。在这一节中我们将看看我们用来计算J(Θ)的偏导数方程: 为此,我们使用下面的算法: 反向传播算法实现: 1.得到 阅读全文
posted @ 2017-08-09 16:16 郑哲 阅读(183) 评论(0) 推荐(0) 编辑
摘要: 让我们首先定义一些需要用到的变量: L:神经网络的层数; Sl:第l层神经网络节点数量; K:神经网络输出层节点数; 回想一下,在神经网络中,我们可能有许多输出节点。我们HΘ(x)k表示一个假设的结果在第k个输出节点的输出。 我们的神经网络的成本函数将是我们用于逻辑回归的一个推广。回顾正规logis 阅读全文
posted @ 2017-08-09 15:28 郑哲 阅读(834) 评论(0) 推荐(0) 编辑
摘要: 为了将数据分类为多个类,我们让我们的假设函数返回一个值向量。说我们想把我们的数据分为四类。我们将使用下面的例子来看看这个分类是如何完成的。该算法以图像为输入,对图像进行分类: 我们可以将我们的结果类定义为y: 每个y(i)代表与汽车、行人、卡车或摩托车相对应的不同图像。内层,每一层都为我们提供了一些 阅读全文
posted @ 2017-08-09 15:07 郑哲 阅读(1754) 评论(0) 推荐(0) 编辑
摘要: 的Θ(1)矩阵的且,或,非: 我们可以把这些拿到”同“逻辑运算符(如果X1和X2都是0或1则为1)。 在第一层和第二层之间的过渡,我们将使用一个Θ(1)相结合的和矩阵: 第二和第三层之间的过渡,我们将使用一个Θ(2)矩阵的使用价值或: 让我们写下我们所有的节点的值: 我们有了同或算子使用隐藏层节点! 阅读全文
posted @ 2017-08-09 15:00 郑哲 阅读(165) 评论(0) 推荐(0) 编辑
摘要: 应用神经网络的一个简单例子是预测X1和x2,这是逻辑“和”运算符,只有X1和x2为1时才是真的。 函数的图看起来像: 记住,x0是我们的偏差变量始终是1。 让我们把第一个θ矩阵设为: 如果当x1和x2都为1这将使我们的结果都为真。换言之: 所以我们用一个小的神经网络,而不是用一个实际的门来构造计算机 阅读全文
posted @ 2017-08-09 08:34 郑哲 阅读(247) 评论(0) 推荐(0) 编辑
摘要: 要重新迭代,下面是一个神经网络的例子: 在本节中我们将做一个以上的功能量化的实施。我们将定义一个新的变量zk(j),它包含g函数中的参数。在我们前面的示例中,如果我们为所有参数替换变量z,我们将得到: 换句话说,对于层j = 2和节点k,变量z将是: 最后一个Θ(j)矩阵为一维,我们最终得到的结果为 阅读全文
posted @ 2017-08-08 21:34 郑哲 阅读(122) 评论(0) 推荐(0) 编辑
摘要: 让我们研究一下如何用神经网络表示一个假设函数。在一个非常简单的层次上,神经元基本上是计算单元,它把输入(树突)作为电输入(称为“尖峰”),引导到输出(轴突)。在我们的模型中,我们的树突就像输入特征X1⋯xn,而输出则是我们的假设函数的结果。在这个模型中我们X0输入节点有时被称为“偏差”。它总是等于1 阅读全文
posted @ 2017-08-08 21:29 郑哲 阅读(149) 评论(0) 推荐(0) 编辑
摘要: 我们可以规范logistic回归以类似的方式,我们对线性回归。作为一个结果,我们可以避免过拟合。下面的图像显示了正则化函数,用粉红色的线显示出来,是不太可能过度拟合非正则的蓝线表示功能: 成本函数 我们可以使这个方程的最后添加一个项: 第二个和,意思是明确排除二次项。 阅读全文
posted @ 2017-08-08 21:10 郑哲 阅读(1622) 评论(0) 推荐(0) 编辑
摘要: 我们可以运用正则化的线性回归和logistic回归。我们先尝试线性回归。 梯度下降 我们将会把θ0修改梯度下降函数从其余的参数分离出来,因为我们不想惩罚θ0。 执行我们的正则化。通过一些操作,我们的更新规则也可以表示为: 在第一项、1−αλM永远小于1。直觉上你可以看到它在降低θJ值一定都更新。请注 阅读全文
posted @ 2017-08-06 18:44 郑哲 阅读(456) 评论(0) 推荐(0) 编辑
上一页 1 ··· 7 8 9 10 11 12 13 14 15 ··· 19 下一页