交叉熵的概率计算

 

python代码如下:

复制代码
import numpy as np

def softmax(logits):
    """计算softmax概率分布"""
    exp_logits = np.exp(logits)
    return exp_logits / np.sum(exp_logits)

def cross_entropy_loss(pred_probs, true_labels):
    """计算交叉熵损失"""
    return -np.sum(true_labels * np.log(pred_probs))

# 示例:三分类任务的logits和真实标签
logits = np.array([2.0, 1.0, 0.1])
true_labels = np.array([1, 0, 0])  # 类别 A 的 one-hot 编码

# 计算 softmax 概率分布
pred_probs = softmax(logits)
print(f"Softmax 概率分布: {pred_probs}")

# 计算交叉熵损失
loss = cross_entropy_loss(pred_probs, true_labels)
print(f"交叉熵损失: {loss}")
View Code
复制代码

运行结果如下:

 

logits一般怎么计算

 

posted @   阿坦  阅读(10)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 【译】Visual Studio 中新的强大生产力特性
· 【设计模式】告别冗长if-else语句:使用策略模式优化代码结构
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
点击右上角即可分享
微信分享提示