摘要: 信息论初步。 越少出现的事件其包含的信息量越大,用h(x)表示, h(x)需满足性质:h(x,y)=h(x)+h(y),x,y是两个不相关事件。 由此可以对h(x)建立模型:h(x)=-log2p(x)。 如果要把本地的随机发生的事件传到另一个地方,需要传输的平均信息量为: 这个H[x]也叫做熵。... 阅读全文
posted @ 2011-07-11 11:48 MindProbe 阅读(747) 评论(0) 推荐(0) 编辑