使用pytorch求梯度

下图是参考资料1的一个习题.求一个函数在指定位置的梯度.先根据梯度的定义人工计算.

因为

fx=2x+y+3,fy=4y+x2,fz=6z6

所以

gradf(x,y,z)=(2x+y+3)i+(4y+x2)j+(6z6)k

那么

f(0,0,0)=3i2j6k=(3,2,6)

f(1,1,1)=6i+3j=(3,2,0)

再使用pytorch计算

# coding: utf-8
import torch


def grad(x, y, z):
    x = torch.tensor([x], requires_grad=True)
    y = torch.tensor([y], requires_grad=True)
    z = torch.tensor([z], requires_grad=True)
    f_value = x * x + 2 * y * y + 3 * z * z + x * y + 3 * x - 2 * y - 6 * z
    f_value.backward()
    return x.grad.item(), y.grad.item(), z.grad.item()


if __name__ == '__main__':
    print(grad(0.0, 0.0, 0.0))
    print(grad(1.0, 1.0, 1.0))

计算结果和人工计算是一样的.特别要注意backward函数,执行这个函数等于帮我们求了梯度,不用再人工计算梯度,大大减少了工作量.

参考资料

  1. 同济大学数学系,高等数学第七版下册,高等教育出版社,p103-111, 2015.
  2. 深度学习初级入门基础教程

posted on   荷楠仁  阅读(320)  评论(0编辑  收藏  举报

相关博文:
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 【译】Visual Studio 中新的强大生产力特性
· 【设计模式】告别冗长if-else语句:使用策略模式优化代码结构
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义

导航

统计

点击右上角即可分享
微信分享提示