随笔分类 -  Pytorch

摘要:一、pytorch中各损失函数的比较 Pytorch中Softmax、Log_Softmax、NLLLoss以及CrossEntropyLoss的关系与区别详解 Pytorch详解BCELoss和BCEWithLogitsLoss Focal Loss理解-菜鸟笔记 (coonote.com) 总结 阅读全文
posted @ 2020-03-30 17:50 Picassooo 阅读(3825) 评论(0) 推荐(0) 编辑
摘要:用PyTorch进行神经网络训练时,如果训练用的数据是图像数据,则需要在训练之前对图像进行预处理。以MNIST数据为例: train_data = torchvision.datasets.MNIST( root='./mnist/', train=True, transform=torchvisi 阅读全文
posted @ 2020-03-27 22:47 Picassooo 阅读(3351) 评论(0) 推荐(0) 编辑
摘要:.add()和.add_() .add()和.add_()都能把两个张量加起来,但.add_是in-place操作,比如x.add_(y),x+y的结果会存储到原来的x中。Torch里面所有带"_"的操作,都是in-place的。 .mul()和.mul_() x.mul(y)或x.mul_(y)实 阅读全文
posted @ 2020-03-27 19:36 Picassooo 阅读(21122) 评论(0) 推荐(2) 编辑
摘要:总结:pytorch和numpy中,星号*都表示矩阵点对点相乘;matmul都表示矩阵乘法。 PyTorch中,a.mul(b)表示矩阵a和b点对点乘(即相同位置的元素相乘),‘*’也表示矩阵点对点相乘。a.mm(b)表示矩阵乘法。另外torch.matmul(a, b)以及a@b也都可以表示a和b 阅读全文
posted @ 2020-03-27 11:22 Picassooo 阅读(2009) 评论(0) 推荐(0) 编辑
摘要:PyTorch中的常用的tensor类型 PyTorch中的常用的tensor类型包括: 32位浮点型torch.FloatTensor, 64位浮点型torch.DoubleTensor, 16位整型torch.ShortTensor, 32位整型torch.IntTensor, 64位整型tor 阅读全文
posted @ 2020-03-26 12:10 Picassooo 阅读(16352) 评论(0) 推荐(0) 编辑
摘要:size() size()函数返回张量的各个维度的尺度。 squeeze() squeeze(input, dim=None),如果不给定dim,则把input的所有size为1的维度给移除;如果给定dim,则只移除给定的且size为1的维度。 阅读全文
posted @ 2020-03-20 00:52 Picassooo 阅读(10111) 评论(0) 推荐(0) 编辑
摘要:torch.linspace torch.linspace(start, end, steps) returns a one-dimensional tensor of equally spaced points between [start, end]。steps默认值是100。 torch.ra 阅读全文
posted @ 2020-02-22 12:57 Picassooo 阅读(448) 评论(0) 推荐(0) 编辑
摘要:2018.4.25,Facebook 推出了 PyTorch 0.4.0 版本,在该版本及之后的版本中,torch.autograd.Variable 和 torch.Tensor 同属一类。更确切地说,torch.Tensor 能够追踪日志并像旧版本的 Variable 那样运行; Variabl 阅读全文
posted @ 2019-12-19 13:55 Picassooo 阅读(412) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示