摘要: 信息论,主要用于量化信息。 事件发生的概率越大,包含的信息就越少。例如“太阳从东边升起”,信息量就很少。 1、自信息(self-information) 两个独立事件发生所包含的信息,等于各自发生包含的信息之和。 2、熵(entropy) 信息量的期望。 3、KL散度 也叫相对熵(relative 阅读全文
posted @ 2019-03-15 10:30 happyyoung 阅读(350) 评论(0) 推荐(0) 编辑