2017年9月28日

mini-batch和full-batch,及参数更新

摘要: 一次epoch是指跑完全部的数据集。 在对模型参数进行更新学习的时候,有三种更新方式,mini-batch (部分增量更新)与 full-batch(全增量更新),以及一次选一个训练。 SGD随机梯度下降法对full-batch GD有了极大速度的提升。但有一个问题就是由于过于自由 导致训练的los 阅读全文

posted @ 2017-09-28 11:10 MissSimple 阅读(2474) 评论(0) 推荐(0) 编辑

回归和分类问题区别

摘要: 离散和连续的区别。 本质都是为特征赋予权重,从而让特征的变换和权重组成的表达式可以算出离散/连续的预测值。 比方说房价(p)和面积(s)关系,如果房价是个连续的,那么为面积赋予变换方式(例如p=Θs,p=Θs^2,特征s的一次、二次就是特征的变换)和权重(Θ),得到p,就是房价。 若房价离散的,那么 阅读全文

posted @ 2017-09-28 09:56 MissSimple 阅读(425) 评论(0) 推荐(0) 编辑

导航