Pytorch损失函数总结
损失函数
nn.L1Loss |
创建一个衡量输入中每个元素之间的平均绝对误差 (MAE) 的标准XX和目标是的是的. |
---|---|
nn.MSELoss |
创建一个标准,用于测量输入中每个元素之间的均方误差(平方 L2 范数)XX和目标是的是的. |
nn.CrossEntropyLoss |
该标准计算输入和目标之间的交叉熵损失。 |
nn.CTCLoss |
联结主义时间分类损失。 |
nn.NLLLoss |
负对数似然损失。 |
nn.PoissonNLLLoss |
目标泊松分布的负对数似然损失。 |
nn.GaussianNLLLoss |
高斯负对数似然损失。 |
nn.KLDivLoss |
Kullback-Leibler 散度损失。 |
nn.BCELoss |
创建一个衡量目标和输入概率之间的二元交叉熵的标准: |
nn.BCEWithLogitsLoss |
这种损失将Sigmoid层和BCELoss 组合在一个类中。 |
nn.MarginRankingLoss |
创建一个标准来衡量给定输入的损失x1× 1,x2× 2, 两个 1D mini- batch 或 0D Tensor和一个标签 1D mini-batch 或 0D Tensor 是的是的(包含 1 或 -1)。 |
nn.HingeEmbeddingLoss |
测量给定输入张量的损失XX和一个标签张量是的是的(包含 1 或 -1)。 |
nn.MultiLabelMarginLoss |
创建一个标准,优化输入之间的多类多分类铰链损失(margin-based loss)XX(一个 2D 小批量张量)和输出是的是的(这是目标类索引的 2D张量)。 |
nn.HuberLoss |
如果绝对元素级误差低于 delta,则创建使用平方项的标准,否则使用 delta 缩放的 L1 项。 |
nn.SmoothL1Loss |
如果绝对元素误差低于 beta,则创建一个使用平方项的标准,否则创建一个 L1 项。 |
nn.SoftMarginLoss |
创建一个优化输入张量之间的二分类逻辑损失的标准XX和目标张量是的是的(包含 1 或 -1)。 |
nn.MultiLabelSoftMarginLoss |
创建一个标准,该标准基于输入之间的最大熵优化多标签一对一损失XX和目标是的是的大小的(N, C)( N ,三). |
nn.CosineEmbeddingLoss |
创建一个标准来衡量给定输入张量的损失x_1X1,x_2X2和张量标签是的是的值为 1 或 -1。 |
nn.MultiMarginLoss |
创建一个标准,优化输入之间的多类分类铰链损失(基于边距的损失)XX(一个 2D 小批量张量)和输出是的是的(这是目标类索引的一维张量,0 \leq y \leq \text{x.size}(1)-10≤是的≤x.大小( 1 )-1): |
nn.TripletMarginLoss |
创建一个标准来衡量给定输入张量的三元组损失x1× 1,x2× 2,x3× 3和一个值大于的边距00. |
nn.TripletMarginWithDistanceLoss |
创建一个标准来衡量给定输入张量的三元组损失一种一种,pp, 和nn(分别表示锚点、正例和负例),以及用于计算锚点和正例(“正例”)与锚点和负例之间关系的非负实值函数(“距离函数”) (“负距离”)。 |
Talk is cheap. Show me the code