01 2024 档案

摘要:一、grad `grad`是指梯度的缩写。梯度在深度学习中非常重要,因为它们是使用反向传播算法进行网络训练时所需要计算的。PyTorch通过自动微分引擎Autograd提供了自动计算梯度的功能。每个`Tensor`对象都有一个`.grad`属性,这个属性会保存该`Tensor`的梯度。 二、与gra 阅读全文
posted @ 2024-01-20 23:55 LCAC 阅读(197) 评论(0) 推荐(0) 编辑
摘要:一、norm 这个是计算范式 对应的公示是: 正常没有指定p的值的时候默认是2 如下所示 a = torch.arange(1, 6, dtype=torch.float32) print(torch.norm(a)) # 这里p没有指定,则默认是2 print(torch.norm(a, 1)) 阅读全文
posted @ 2024-01-18 23:34 LCAC 阅读(388) 评论(0) 推荐(0) 编辑
摘要:一、降维 1、求和 对一个n维数组进行求和,如果指定沿哪一个轴来通过求和降低维度。如下是降低0维: A = torch.arange(20, dtype=torch.float32).reshape(5,4) print(A) print(A.sum(axis=0)) /* tensor([[ 0. 阅读全文
posted @ 2024-01-07 18:30 LCAC 阅读(7) 评论(0) 推荐(0) 编辑
摘要:一、广播机制 两个张量进行运算(加减乘除幂等) 如果两个张量形状相同则很容易进行运算,如果两个张量不同的时候该如何进行运算呢? 1、a张量竖为1,b张量横为1 比如:a = torch.arange(3).reshape((3, 1)), b = torch.arange(2).reshape((1 阅读全文
posted @ 2024-01-03 23:07 LCAC 阅读(8) 评论(0) 推荐(0) 编辑