摘要: 参考:https://pytorch.org/docs/master/optim.html#how-to-adjust-learning-rate torch.optim.lr_scheduler提供了几种方法来根据迭代的数量来调整学习率 自己手动定义一个学习率衰减函数: def adjust_le 阅读全文
posted @ 2019-05-20 20:53 慢行厚积 阅读(54910) 评论(10) 推荐(5) 编辑
摘要: 参考:http://theorangeduck.com/page/neural-network-not-working My Neural Network isn't working! What should I do? 因此,你正在开发深度学习的下一个重大突破,但你遇到了一个不幸的挫折:你的神经网 阅读全文
posted @ 2019-05-20 15:14 慢行厚积 阅读(1468) 评论(0) 推荐(0) 编辑