摘要: 交叉熵(Cross-Entropy) 交叉熵是一个在ML领域经常会被提到的名词。在这篇文章里将对这个概念进行详细的分析。 1.什么是信息量? 假设X的信息量为:I(x0)=−log(p(x0))时,熵将等于0,也就是说该事件的发生不会导致任何信息量的增加。举个例子,小明平时不爱学习,考试经常不及格, 阅读全文
posted @ 2020-03-31 13:50 Tomorrow1126 阅读(209) 评论(0) 推荐(0) 编辑