摘要: nn.CrossEntropyLoss()这个损失函数和我们普通说的交叉熵还是有些区别。 $x$是模型生成的结果,$class$是数据对应的label $loss(x,class)=-log(\frac{exp(x[class])}{\sum_j exp(x[j])})=-x[class]+log( 阅读全文
posted @ 2019-12-11 16:13 suwenyuan 阅读(7831) 评论(0) 推荐(2) 编辑
摘要: 具体示例如下,注意观察维度的变化 1.改变tensor维度的操作:transpose、view、permute、t()、expand、repeat #coding=utf-8 import torch def change_tensor_shape(): x=torch.randn(2,4,3) s 阅读全文
posted @ 2019-12-11 11:16 suwenyuan 阅读(14360) 评论(0) 推荐(0) 编辑
摘要: 如下是tensor乘法与加减法,对应位相乘或相加减,可以一对多 import torch def add_and_mul(): x = torch.Tensor([[[1, 2, 3], [4, 5, 6]], [[7, 8, 9], [10, 11, 12]]]) y = torch.Tensor 阅读全文
posted @ 2019-12-11 11:15 suwenyuan 阅读(11744) 评论(0) 推荐(0) 编辑
摘要: Variable一般的初始化方法,默认是不求梯度的 import torch from torch.autograd import Variable x_tensor = torch.randn(2,3) #将tensor转换成Variable x = Variable(x_tensor) prin 阅读全文
posted @ 2019-12-11 11:01 suwenyuan 阅读(1414) 评论(0) 推荐(0) 编辑