pytorch函数zero_grad(),step()作用
摘要:pytorch函数zero_grad(),step()作用 假定现在有损失函数 先用手写梯度下降算法求该损失函数的极小值.这只是一个例子,其实能直接观察出来在(0,0)邻域内的极小值是0.但是为 了说
阅读全文
posted @ 2022-03-24 09:59
posted @ 2022-03-24 09:59
posted @ 2022-03-24 09:07
posted @ 2022-03-19 09:04
posted @ 2022-03-17 15:58