pytorch函数zero_grad(),step()作用
摘要:
pytorch函数zero_grad(),step()作用 假定现在有损失函数 \[ \begin{equation*} z=x^2+y^2 \end{equation*} \] 先用手写梯度下降算法求该损失函数的极小值.这只是一个例子,其实能直接观察出来在(0,0)邻域内的极小值是0.但是为 了说 阅读全文
posted @ 2022-03-24 09:59 荷楠仁 阅读(1527) 评论(0) 推荐(3) 编辑