摘要: 代码: 阅读全文
posted @ 2019-04-03 20:45 Archer-Fang 阅读(1438) 评论(0) 推荐(0) 编辑
摘要: 一、view函数 代码: 输出: 解释: 其中参数-1表示剩下的值的个数一起构成一个维度。 如上例中,第一个参数1将第一个维度的大小设定成1,后一个-1就是说第二个维度的大小=元素总数目/第一个维度的大小,此例中为3*4*5*7/1=420. 代码: 输出: 二、max函数 1.torch.max( 阅读全文
posted @ 2019-04-03 19:42 Archer-Fang 阅读(8881) 评论(0) 推荐(2) 编辑
摘要: 代码: 性能比较图如下: 结论:RMSprop与Adam优化性能较好,SGD与Momentun较差 阅读全文
posted @ 2019-04-03 15:15 Archer-Fang 阅读(321) 评论(0) 推荐(0) 编辑
摘要: 1.将numpy矩阵转换为Tensor张量 2.将Tensor张量转化为numpy矩阵 3.将numpy转换为Variable 4.将Variable张量转化为numpy 阅读全文
posted @ 2019-04-03 14:47 Archer-Fang 阅读(737) 评论(0) 推荐(0) 编辑
摘要: 把要训练的数据转换成数据集,然后把数据集放到loader中加载,可以有效的帮助你迭代数据。 DataLoader 是 torch 给你用来包装你的数据的工具. 所以你要讲自己的 (numpy array 或其他) 数据形式装换成 Tensor, 然后再放进这个包装器中. 代码: 如果BATCH_SI 阅读全文
posted @ 2019-04-03 14:13 Archer-Fang 阅读(200) 评论(0) 推荐(0) 编辑
摘要: 1.保存神经网络 速度较慢 2.只保存神经网络参数 速度快,这种方式将会提取所有的参数, 然后再放到你的新建网络中 代码: 输出图: 阅读全文
posted @ 2019-04-03 12:31 Archer-Fang 阅读(1334) 评论(0) 推荐(0) 编辑
摘要: torch.manual_seed(args.seed) #为CPU设置种子用于生成随机数,以使得结果是确定的 代码: 输出:结果不同 代码: 输出:结果相同 代码: 输出:结果不同,但再次运行a,b不变 阅读全文
posted @ 2019-04-03 12:11 Archer-Fang 阅读(2275) 评论(0) 推荐(1) 编辑
摘要: 一、先看torch.squeeze() 这个函数主要对数据的维度进行压缩,去掉维数为1的的维度,比如是一行或者一列这种,一个一行三列(1,3)的数去掉第一个维数为一的维度之后就变成(3)行。 1.squeeze(a)就是将a中所有为1的维度删掉。不为1的维度没有影响。 2.a.squeeze(N) 阅读全文
posted @ 2019-04-03 12:00 Archer-Fang 阅读(18106) 评论(1) 推荐(4) 编辑
摘要: 原来-方式一: 输出: 现在-方式二: 输出: 比较: 方式一适合于个性化的向前传播配置,如使用RNN。但是麻烦。 方式二搭建简单,省略了很多的过程 阅读全文
posted @ 2019-04-03 11:40 Archer-Fang 阅读(257) 评论(0) 推荐(0) 编辑