摘要: def a(): w=torch.randn((5,1)) b=torch.randn(1) return [w,b] return 函数返回的是一个列表。 代码展示: def a(): w=torch.randn((5,1)) b=torch.randn(1) return [w,b] print 阅读全文
posted @ 2021-06-21 22:20 祥瑞哈哈哈 阅读(194) 评论(0) 推荐(0) 编辑
摘要: 官方解释:返回一个以0为平均值,标准差为1的正态分布随机数。size代表返回张量的形状。 阅读全文
posted @ 2021-06-21 21:44 祥瑞哈哈哈 阅读(2218) 评论(0) 推荐(0) 编辑
摘要: 正则化则是在正常的损失函数后边加上一个惩罚项,λ表示人工对权重的限制,如果我们希望所有权重都相对小一些,我们可以把λ调的大一些,如果我们希望权值大一些就可以把λ调小一些。相当于人为对权值进行干预 阅读全文
posted @ 2021-06-21 19:20 祥瑞哈哈哈 阅读(140) 评论(0) 推荐(0) 编辑
摘要: 官方解释:张量自带函数,将张量转变为python的数值,它只能用于单个张量,如何用于多变量则为tolist()。 loss=torch.nn.MSELoss() print(loss(torch.tensor(1.0),torch.tensor(1.0))) print(loss(torch.ten 阅读全文
posted @ 2021-06-21 19:03 祥瑞哈哈哈 阅读(1145) 评论(0) 推荐(0) 编辑
摘要: plt.figure(figsize),figsize:指定单位的宽和高单位为英尺。 plt.xlabel('x') plt.ylabel('y') 分别在x轴、y轴画上标签名称。 plt.semilogy(x_vals,y_vals) x轴是线性刻度,y轴是对数刻度。 base:float, de 阅读全文
posted @ 2021-06-21 18:51 祥瑞哈哈哈 阅读(511) 评论(0) 推荐(0) 编辑
摘要: CLASStorch.utils.data.TensorDataset(*tensors) Dataset wrapping tensors. Each sample will be retrieved by indexing tensors along the first dimension. P 阅读全文
posted @ 2021-06-21 17:08 祥瑞哈哈哈 阅读(535) 评论(0) 推荐(0) 编辑
摘要: torch.nn.Linear的作用是对输入向量进行矩阵的乘积和加法。y=x(A)转置+b。这点类似于全连接神经网络的的隐藏层。in_feature代表输入神经元的个数。out_feature代表输出神经元的个数。bias为False不参与训练。如果为True则参与训练。 x = torch.ran 阅读全文
posted @ 2021-06-21 16:22 祥瑞哈哈哈 阅读(3362) 评论(0) 推荐(0) 编辑