摘要: 1. 信息熵:考虑随机x变量的所有可能取值,即所有可能发生事件所带来的信息量的期望 信息熵越大,变量中包含的信息量就越大。同时,也说明了变量的不确定性也越大。 2.条件熵:定义为X给定条件下,Y的条件概率分布的熵对X的数学期望 条件熵H(Y|X)表示在已知随机变量X的条件下随机变量Y的不确定性。随机 阅读全文
posted @ 2017-09-26 21:46 萧凡客 阅读(253) 评论(0) 推荐(0) 编辑