摘要: 参考链接:https://blog.csdn.net/scut_salmon/article/details/82414730 optimizer.zero_grad()意思是把梯度置零,也就是把loss关于weight的导数变成0. 在学习pytorch的时候注意到,对于每个batch大都执行了这 阅读全文
posted @ 2021-05-22 17:09 Marklong 阅读(2317) 评论(0) 推荐(1) 编辑