摘要: 学了关于信息熵的内容,简单描述一下。 Entropy,熵,在信息的理论中实际描述的是信息的不确定。 一件事发生的概率越小,所得信息量越大:若是发生概率为1,肯定会发生的事信息量就是0. 在信息熵的运用方面,我们可以以此判断许多操作。例如,对一个有n个元素的数组排序,对排序操作的熵 h 近似 nlog 阅读全文
posted @ 2021-09-29 06:24 Lamplight 阅读(410) 评论(0) 推荐(0) 编辑