摘要: 1.分治法不能用 局部点干扰性大 2.梯度下降 3. 随机梯度下降 随机梯度下降法(Stochastic Gradient Descent, SGD):由于批量梯度下降法在更新每一个参数时,都需要所有的训练样本,所以训练过程会随着样本数量的加大而变得异常的缓慢。随机梯度下降法正是为了解决批量梯度下降 阅读全文
posted @ 2023-10-31 09:49 亚1918 阅读(31) 评论(0) 推荐(0) 编辑