摘要:
1、激励函数的作用 不使用激励函数的话,神经网络的每层都只是做线性变换,多层输入叠加后也还是线性变换。因为线性模型的表达能力不够,激励函数可以引入非线性因素。 2、Torch中的激励函数 阅读全文
摘要:
Variable和Tensor 发现tensor和variable输出的形式是一样的,在新版本的torch中可以直接使用tensor而不需要使用variable。 在旧版本中variable和tensor的区别在于,variable可以进行误差的反向传播,而tensor不可以。 接下来看一下,合并T 阅读全文