摘要: 1、激励函数的作用 不使用激励函数的话,神经网络的每层都只是做线性变换,多层输入叠加后也还是线性变换。因为线性模型的表达能力不够,激励函数可以引入非线性因素。 2、Torch中的激励函数 阅读全文
posted @ 2019-06-14 17:27 funnything 阅读(313) 评论(0) 推荐(0) 编辑
摘要: Variable和Tensor 发现tensor和variable输出的形式是一样的,在新版本的torch中可以直接使用tensor而不需要使用variable。 在旧版本中variable和tensor的区别在于,variable可以进行误差的反向传播,而tensor不可以。 接下来看一下,合并T 阅读全文
posted @ 2019-06-14 11:47 funnything 阅读(5059) 评论(0) 推荐(2) 编辑