摘要: 优化器 Momentum 从平地到了下坡的地方,加速了他的行走 AdaGrad 让每一个参数都有学习率,相当给人穿了一双鞋子 RMSProp 是两者的结合 比较四个优化器 Epoch: 0 Epoch: 1 Epoch: 2 Epoch: 3 Epoch: 4 Epoch: 5 Epoch: 6 E 阅读全文
posted @ 2019-07-08 18:13 childhood_2 阅读(247) 评论(0) 推荐(0) 编辑
摘要: 这个是打乱数据,然后在 依次的慢慢的按步伐的取出,当不足够的时候,就吧剩下的取出来(自适应) Epoch: 0 |Step 0 |Batch x: [ 8. 10. 7. 9. 1.] |batch y: [ 3. 1. 4. 2. 10.] Epoch: 0 |Step 1 |Batch x: [ 阅读全文
posted @ 2019-07-08 18:09 childhood_2 阅读(189) 评论(0) 推荐(0) 编辑
摘要: 快速定义一个神经网络 Sequential( (0): Linear(in_features=2, out_features=10, bias=True) (1): ReLU() (2): Linear(in_features=10, out_features=2, bias=True) ) 阅读全文
posted @ 2019-07-08 18:08 childhood_2 阅读(180) 评论(0) 推荐(0) 编辑
摘要: 保存数据 全部 保留 torch.save(net1 ,'net.pkl') 参数 保留 torch.save(net1.state_dict(), 'net_params.pkl' ) 提取神经网络 net2 = torch.load('.//pkl//net.pkl') 用参数还原神经网络 ne 阅读全文
posted @ 2019-07-08 18:08 childhood_2 阅读(1548) 评论(0) 推荐(0) 编辑
摘要: tensor([[ 1.8586, 2.7746], [ 2.8297, 2.1551], [ 2.4832, 2.2842], [ 1.9556, 1.9917], [ 2.5398, 2.1877], [ 2.6220, 2.5604]]) 定义一个神经网络(用于分类) 分类的时候使用 Cros 阅读全文
posted @ 2019-07-08 18:06 childhood_2 阅读(1210) 评论(0) 推荐(0) 编辑