摘要: 在学习的过程中遇见了一个问题,就是当使用backward()反向传播时传入参数的问题: 这里的backward()中为什么需要传入参数Variable(t.ones(1, 10))呢?没有传入就会报错: 这个错误的意思就是梯度只能为标量(即一个数)输出隐式地创建 比如有一个例子是: 1) 返回: 此 阅读全文
posted @ 2019-03-28 17:15 慢行厚积 阅读(21571) 评论(3) 推荐(4) 编辑
摘要: 参考:https://pytorch.org/tutorials/beginner/blitz/cifar10_tutorial.html#sphx-glr-beginner-blitz-cifar10-tutorial-py TRAINING A CLASSIFIER 到这里,你已经知道怎么定义神 阅读全文
posted @ 2019-03-28 15:34 慢行厚积 阅读(2523) 评论(2) 推荐(0) 编辑
摘要: 参考https://github.com/chenyuntc/pytorch-book/tree/v1.0 希望大家直接到上面的网址去查看代码,下面是本人的笔记 pytorch的设计遵循tensor-> variable(autograd)-> nn.Module三个由低到高的抽象层次,分别代表高维 阅读全文
posted @ 2019-03-28 15:34 慢行厚积 阅读(1588) 评论(0) 推荐(0) 编辑