摘要: 信息熵=$-\sum p_i\log p_i$ 交叉熵(p,q)=$-\sum p_i\log q_i$ KL散度=交叉熵-信息熵,大于等于0。 阅读全文
posted @ 2023-06-16 22:00 Utoрia 阅读(10) 评论(0) 推荐(0) 编辑