摘要:
torch.nn.init.constant(tensor, val) 用val的值填充输入的张量或变量 参数: tensor – n维的torch.Tensor或autograd.Variable val – 用来填充张量的值 阅读全文
摘要:
torch.nn.init.uniform(tensor, a=0, b=1) 从均匀分布U(a, b)中生成值,填充输入的张量或变量 参数: tensor - n维的torch.Tensor a - 均匀分布的下界 b - 均匀分布的上界 阅读全文
摘要:
torch.nn.init.normal(tensor, mean=0, std=1) 从给定均值和标准差的正态分布N(mean, std)中生成值,填充输入的张量或变量 参数: tensor – n维的torch.Tensor mean – 正态分布的均值 std – 正态分布的标准差 阅读全文
摘要:
(1)tensor .data 返回和 x 的相同数据 tensor,而且这个新的tensor和原来的tensor是共用数据的,一者改变,另一者也会跟着改变,而且新分离得到的tensor的require s_grad = False, 即不可求导的。(这一点其实detach是一样的) (2)使用te 阅读全文
摘要:
首先可以把这个函数理解为类型转换函数,将一个不可训练的类型Tensor转换成可以训练的类型parameter并将这个parameter绑定到这个module里面(net.parameter()中就有这个绑定的parameter,所以在参数优化的时候可以进行优化的),所以经过类型转换这个self.v变 阅读全文
摘要:
类型转换, 将list ,numpy转化为tensor a = torch.tensor([[1, 2], [3, 4]]) print(torch.FloatTensor(a.size())) 阅读全文