摘要: ( FORWARD PROPAGATION ) 相对于使用循环来编码,利用向量化的方法会使得计算更为简便。以上面的神经网络为例,试着计算第二层的值: 这只是针对训练集中一个训练实例所进行的计算。如果我们要对整个训练集进行计算,我们需要将训练集特征矩阵进行转置,使得同一个实例的特征都在同一列里。即: 阅读全文
posted @ 2019-02-20 22:20 chalee3 阅读(554) 评论(0) 推荐(0) 编辑
摘要: 神经网络模型建立在很多神经元之上,每一个神经元又是一个个学习模型。这些神经元(也叫激活单元,activation unit)采纳一些特征作为输出,并且根据本身的模型提供一个输出。下图是一个以逻辑回归模型作为自身学习模型的神经元示例,在神经网络中,参数又可被成为权重(weight)。 我们设计出了类似 阅读全文
posted @ 2019-02-20 11:40 chalee3 阅读(486) 评论(0) 推荐(0) 编辑
摘要: 我们之前学的,无论是线性回归还是逻辑回归都有这样一个缺点,即:当特征太多时,计算的负荷会非常大。下面是一个例子: 当我们使用𝑥1, 𝑥2 的多次项式进行预测时,我们可以应用的很好。 之前我们已经看到过,使用非线性的多项式项,能够帮助我们建立更好的分类模型。假设我们有非常多的特征,例如大于100 阅读全文
posted @ 2019-02-20 01:25 chalee3 阅读(500) 评论(0) 推荐(0) 编辑
摘要: GitHub代码练习地址:https://github.com/Neo-ML/JavaPractice/blob/master/IntPractice1.java https://github.com/Neo-ML/JavaPractice/blob/master/IntPractice2.java 阅读全文
posted @ 2019-02-20 00:37 chalee3 阅读(349) 评论(0) 推荐(0) 编辑