详解神经网络中的反向传播

严格的数学定义

务必先认真研究参考资料1,否则后面的内容就不用看了.Jacobian在本质上是个行列式,在参考资料1下引出Jacobian式是为了解决方程组定义的隐函数求导问题.

程序设计上的约定

刚才已经明确,从严格的数学定义上讲,求导或者求偏导只有函数对自变量而言,其余任务情况,从数学上讲都是错的.但是很多机器学习的资料和开源库都涉及到标量对向量求导.比如下面这个pytorch的例子.

import torch
x = torch.tensor([1.0, 2.0, 3.0], requires_grad=True)
y = x ** 2 + 2
z = torch.sum(y)
z.backward()
print(x.grad)

简单解释下,设x=[x1,x2,x3],则

z=x12+x22+x32+6

zx1=2x1

zx2=2x2

zx3=2x3

当将x_1=1.0,x_2=2.0,x_3=3.0代入就可以得到

(zx1,zx1,zx1)=(2x1,2x2,2x3)=(2.0,4.0,6.0)

结果是和pytorch的输出是一样的.反过来想想,其实所谓的"标题对向量求导"本质上是函数对各个自变量求导,这里只是把各个自变量看成一个向量.和数学上的定义并不矛盾.

backward的gradient参数作用

现在有如下问题,已知

y1=x12+2

y2=x22+2

y3=x32+2

A=f(y1,y2,y3)

其中函数f(y1,y2,y3)的具体定义未知,现在求

Ax1=?

Ax2=?

Ax3=?

根据参考资料1中讲的多元复合函数的求导法则.

Ax1=Ay1y1x1+Ay2y2x1+Ay3y3x1

Ax2=Ay1y1x2+Ay2y2x2+Ay3y3x2

Ax3=Ay1y1x3+Ay2y2x3+Ay3y3x3

上面3个等式可以写成矩阵相乘的形式.如下

(1)[Ax1,Ax2,Ax3]=[Ay1,Ay2,Ay3][123123123]

参考资料

  1. 同济大学数学系,高等数学第七版下册,高等教育出版社,2015. p78-80,p88-91

posted on   荷楠仁  阅读(967)  评论(0编辑  收藏  举报

编辑推荐:
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 【译】Visual Studio 中新的强大生产力特性
· 【设计模式】告别冗长if-else语句:使用策略模式优化代码结构
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义

导航

统计

点击右上角即可分享
微信分享提示