摘要:
def a(): w=torch.randn((5,1)) b=torch.randn(1) return [w,b] return 函数返回的是一个列表。 代码展示: def a(): w=torch.randn((5,1)) b=torch.randn(1) return [w,b] print 阅读全文
摘要:
官方解释:返回一个以0为平均值,标准差为1的正态分布随机数。size代表返回张量的形状。 阅读全文
摘要:
正则化则是在正常的损失函数后边加上一个惩罚项,λ表示人工对权重的限制,如果我们希望所有权重都相对小一些,我们可以把λ调的大一些,如果我们希望权值大一些就可以把λ调小一些。相当于人为对权值进行干预 阅读全文
摘要:
官方解释:张量自带函数,将张量转变为python的数值,它只能用于单个张量,如何用于多变量则为tolist()。 loss=torch.nn.MSELoss() print(loss(torch.tensor(1.0),torch.tensor(1.0))) print(loss(torch.ten 阅读全文
摘要:
plt.figure(figsize),figsize:指定单位的宽和高单位为英尺。 plt.xlabel('x') plt.ylabel('y') 分别在x轴、y轴画上标签名称。 plt.semilogy(x_vals,y_vals) x轴是线性刻度,y轴是对数刻度。 base:float, de 阅读全文
摘要:
CLASStorch.utils.data.TensorDataset(*tensors) Dataset wrapping tensors. Each sample will be retrieved by indexing tensors along the first dimension. P 阅读全文
摘要:
torch.nn.Linear的作用是对输入向量进行矩阵的乘积和加法。y=x(A)转置+b。这点类似于全连接神经网络的的隐藏层。in_feature代表输入神经元的个数。out_feature代表输出神经元的个数。bias为False不参与训练。如果为True则参与训练。 x = torch.ran 阅读全文