摘要: $batch$和$mini-batch$梯度下降 $batch$梯度下降:使用全部训练集样本,计算代价太高$(n\sim10^6)$ $mini-batch$梯度下降:随机采样一个子集$(m\sim102或103)$ \[ \nabla J(\theta)=\frac{1}{m}\sum^m_{j= 阅读全文
posted @ 2021-02-01 23:13 DemonSlayer 阅读(124) 评论(0) 推荐(0) 编辑