摘要: 1.保存神经网络 速度较慢 2.只保存神经网络参数 速度快,这种方式将会提取所有的参数, 然后再放到你的新建网络中 代码: 输出图: 阅读全文
posted @ 2019-04-03 12:31 Archer-Fang 阅读(1384) 评论(0) 推荐(0) 编辑
摘要: torch.manual_seed(args.seed) #为CPU设置种子用于生成随机数,以使得结果是确定的 代码: 输出:结果不同 代码: 输出:结果相同 代码: 输出:结果不同,但再次运行a,b不变 阅读全文
posted @ 2019-04-03 12:11 Archer-Fang 阅读(2297) 评论(0) 推荐(1) 编辑
摘要: 一、先看torch.squeeze() 这个函数主要对数据的维度进行压缩,去掉维数为1的的维度,比如是一行或者一列这种,一个一行三列(1,3)的数去掉第一个维数为一的维度之后就变成(3)行。 1.squeeze(a)就是将a中所有为1的维度删掉。不为1的维度没有影响。 2.a.squeeze(N) 阅读全文
posted @ 2019-04-03 12:00 Archer-Fang 阅读(18183) 评论(1) 推荐(4) 编辑
摘要: 原来-方式一: 输出: 现在-方式二: 输出: 比较: 方式一适合于个性化的向前传播配置,如使用RNN。但是麻烦。 方式二搭建简单,省略了很多的过程 阅读全文
posted @ 2019-04-03 11:40 Archer-Fang 阅读(259) 评论(0) 推荐(0) 编辑
摘要: 1.填数据 2.构造神经网络模型 3.训练模型 4.绘图 代码如下 阅读全文
posted @ 2019-04-02 21:55 Archer-Fang 阅读(305) 评论(0) 推荐(0) 编辑
摘要: class torch.nn.Linear(in_features,out_features,bias = True )[来源] 对传入数据应用线性变换:y = A x+ b 参数: in_features - 每个输入样本的大小 out_features - 每个输出样本的大小 bias - 如果 阅读全文
posted @ 2019-04-02 21:28 Archer-Fang 阅读(48776) 评论(0) 推荐(4) 编辑
摘要: Returns a Tensor of random numbers drawn from separate normal distributions who’s mean and standard deviation are given. 这个是官网给出的解释,大意是返回一个张量,张量里面的随机数 阅读全文
posted @ 2019-04-02 20:58 Archer-Fang 阅读(2850) 评论(0) 推荐(0) 编辑
摘要: 为什么要用卷积神经网络? 传统神经网络的劣势 前面说到在图像领域,用传统的神经网络并不合适。我们知道,图像是由一个个像素点构成,每个像素点有三个通道,分别代表RGB颜色,那么,如果一个图像的尺寸是(28,28,1),即代表这个图像的是一个长宽均为28,channel为1的图像(channel也叫de 阅读全文
posted @ 2019-04-02 19:41 Archer-Fang 阅读(431) 评论(0) 推荐(0) 编辑
摘要: 假设,你有这样一个网络层: 第一层是输入层,包含两个神经元i1,i2,和截距项b1;第二层是隐含层,包含两个神经元h1,h2和截距项b2,第三层是输出o1,o2,每条线上标的wi是层与层之间连接的权重,激活函数我们默认为sigmoid函数。 现在对他们赋上初值,如下图: 其中,输入数据 i1=0.0 阅读全文
posted @ 2019-04-01 21:30 Archer-Fang 阅读(2743) 评论(0) 推荐(1) 编辑
摘要: 闭包 注意到返回的函数在其定义内部引用了局部变量args,所以,当一个函数返回了一个函数后,其内部的局部变量还被新函数引用,所以,闭包用起来简单,实现起来可不容易。 另一个需要注意的问题是,返回的函数并没有立刻执行,而是直到调用了f()才执行。我们来看一个例子: 在上面的例子中,每次循环,都创建了一 阅读全文
posted @ 2019-03-28 22:11 Archer-Fang 阅读(130) 评论(0) 推荐(0) 编辑