摘要:
def log_prob(self, value, pre_tanh_value=None): """ :param value: some value, x :param pre_tanh_value: arctanh(x) :return: """ if pre_tanh_value is No 阅读全文
摘要:
def sample(self, return_pretanh_value=False): """ Gradients will and should *not* pass through this operation. See https://github.com/pytorch/pytorch/ 阅读全文
摘要:
转载注明出处:PyTorch学习系列(十)--如何在训练时固定一些层? - CodeTutor - CSDN博客 Pytorch 保存和加载模型的代码: 保存模型: torch.save(net1.state_dict(), 'net_params.pkl') # 只保存神经网络的模型参数 与之对应 阅读全文
摘要:
什么是激励函数(激活函数):在神经网络中原本输入输出都是线性关系,但现实中,许多的问题是非线性的(比如,房价问题中,房价不可能随着房子面积的增加一直线性增加),这个时候就神经网络的线性输出,再经过激励函数,便使得原本线性的关系变成非线性了,增强了神经网络的性能。 常用的激励函数(激活函数):relu 阅读全文
摘要:
def to_numpy(self) -> 'Batch': """Change all torch.Tensor to numpy.ndarray in-place.""" for k, v in self.items(): if isinstance(v, torch.Tensor): self 阅读全文
摘要:
PyTorch中的torch.nn.Parameter() 首先可以把这个函数理解为类型转换函数,将一个不可训练的类型Tensor转换成可以训练的类型parameter并将这个parameter绑定到这个module里面(net.parameter()中就有这个绑定的parameter,所以在参数优 阅读全文
摘要:
nn.ReLU(inplace=True) 参数inplace=True:inplace为True,将会改变输入的数据 ,否则不会改变原输入,只会产生新的输出inplace:can optionally do the operation in-place. Default: False注: 产生的计 阅读全文