2022年3月24日

pytorch函数zero_grad(),step()作用

摘要: pytorch函数zero_grad(),step()作用 假定现在有损失函数 \[ \begin{equation*} z=x^2+y^2 \end{equation*} \] 先用手写梯度下降算法求该损失函数的极小值.这只是一个例子,其实能直接观察出来在(0,0)邻域内的极小值是0.但是为 了说 阅读全文

posted @ 2022-03-24 09:59 荷楠仁 阅读(1527) 评论(0) 推荐(3) 编辑

使用pytorch求梯度

摘要: 下图是参考资料1的一个习题.求一个函数在指定位置的梯度.先根据梯度的定义人工计算. 因为 \[ \begin{equation*} \frac{\partial f}{\partial x}=2x+y+3, \frac{\partial f}{\partial y}=4y+x-2, \frac{\p 阅读全文

posted @ 2022-03-24 09:07 荷楠仁 阅读(316) 评论(0) 推荐(0) 编辑

导航