引用别人的

 

error: Microsoft Visual C++ 14.0 is required

装matplotlib时

https://blog.csdn.net/weixin_40547993/article/details/89399825

torch.cuda.is_available()false

可能你的cuda 和torch 版本不对应

如果nvcc -V 之后 cuda:9.0

pip install  --default-timeout=1000  torch==1.3.1 torchvision==0.4.2 -i https://pypi.tuna.tsinghua.edu.cn/simple

对于torch中训练时,反向传播前将梯度手动清零的理解

https://www.zhihu.com/question/303070254/answer/573037166

简单的理由是因为PyTorch默认会对梯度进行累加。至于为什么PyTorch有这样的特点,
在网上找到的解释是说由于PyTorch的动态图和autograd机制使得其非常灵活,这也意味着你可以得到对一个张量的梯度,然后再次用该梯度进行计算,
然后又可重新计算对新操作的梯度,对于何时停止前向操作并没有一个确定的点。
所以自动设置梯度为0比较棘手,因为你不知道什么时候一个计算会结束以及什么时候又会有一个新的开始。
默认累加的好处是当在多任务中对前面共享部分的tensor进行了多次计算操作后,调用不同任务loss的backward,那些tensor的梯度会自动累加,缺点是当你不想先前的梯度影响到当前梯度的计算时需要手动清零

 

posted on 2020-11-01 22:19  cltt  阅读(78)  评论(0编辑  收藏  举报

导航