torch 中的 Cross Entropy Loss 计算表达式

torch 中的 Cross Entropy Loss​

预测结果为:

P1,P2...Pn

其中Pi={Pi1,Pi2,...,PiM} 表示第 i 个样本的预测结果,Pik 表示预测第 i 个样本是类别 k 的概率。

相应地标签用 Li 表示,Li{1,2,...,M} 表示类别。

LOSS计算过程:

计算PilogsoftmaxLSi:

LSi={log(ePid/tMePit)|d=1,2,...M}

LSi={LSi1,LSi2...,LSiM},

Loss=inLSiLi

python 实现:

import numpy as np
import torch
def softmax(ls):
    ans = []
    for line in ls:
        ans.append([np.e**t/np.sum([np.e**i for i in line]) for t in line])
    return ans
def log_softmax(ls):
    return [np.log(x) for x in softmax(ls)]
def nll_loss(ls, y):
    lsmat = log_softmax(ls)
    vs = 0
    for i in range(len(y)):
        yy = y[i]
        pred = lsmat[i]
        vs += pred[yy]
    return -vs/len(y)
P = torch.randn(5, 2)
Y = torch.LongTensor([0, 1, 1 ,0 ,0])
print(nll_loss(P, Y))
posted @   TSTKSnhx  阅读(269)  评论(0编辑  收藏  举报
编辑推荐:
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· .NET10 - 预览版1新功能体验(一)
点击右上角即可分享
微信分享提示