摘要: 从一批次所用数据量的角度可以分为:全量梯度下降(batch GD),小批量梯度下降(mini-batch GD),随机梯度下降(SGD,一次只用一个样本计算梯度并更新参数)。batch GD, mini-batch GD, SGD都可以看成SGD的范畴, 只不过区别在于每次取多少的样本了。 从梯度的 阅读全文
posted @ 2020-02-22 23:12 Picassooo 阅读(2390) 评论(0) 推荐(0) 编辑
摘要: torch.linspace torch.linspace(start, end, steps) returns a one-dimensional tensor of equally spaced points between [start, end]。steps默认值是100。 torch.ra 阅读全文
posted @ 2020-02-22 12:57 Picassooo 阅读(438) 评论(0) 推荐(0) 编辑