关闭页面特效

信息熵的简单理解

  ,信息熵在机器学习和深度学习中是十分重要的。那么,信息熵到底是什么呢?

  首先,信息熵是描述的一个事情的不确定性。比如:我说,太阳从东方升起。那么这个事件发生的概率几乎为1,那么这个事情的反应的信息量就会很小。如果我说,太阳从西方升起。那么这就反应的信息量就很大了,这有可能是因为地球的自转变成了自东向西,或者地球脱离轨道去到了别的地方,那么这就可能导致白天变成黑夜,热带雨林将变成沙漠,东北亚将不再是苦寒之地,而是现在的西欧一样的海洋性季风气候,而西欧变成寒带大陆性气候跟现在的东北亚苦寒之地一样。

  那么,太阳从东方升起这个事件,概率很大,信息量就会很少。相反,太阳从西方升起,概率很小,信息量就会很多。因此,信息熵常被用来作为一个系统的信息含量的量化指标,从而可以进一步用来作为系统方程优化的目标或者参数选择的判据。

  先来一个信息熵的公式:

    

  其中:𝑝(𝑥𝑖)代表随机事件𝑥𝑖的概率。 

  由上面太阳东升西落,西升东落很容易看出,信息量是随着发生的概率的增大而减少的,而且不能为负。

  另外,如果我们有两个不相关事件A和B,那么可以得知这两个事情同时发生的信息等于各自发生的信息之和。即h(A,B) = h(A) + h(B)

  而且,根据贝叶斯定理,p(A,B) = p(A) * p(B)

  根据上面说到的说熵的定义应该是概率的单调函数。我们很容易看出结论熵的定义 h 应该是概率 p(x)log 函数,因此一个随机变量的熵可以使用以下定义:

  \[h(x)=-log_2p(x)\]

  此处的负号,仅仅是为了保证熵为正数或者为零,而log函数的基数2可以使任意数,只不过根据普遍传统,使用2作为对数的底。

  我们用熵来评价整个随机变量x平均的信息量,而平均最好的量度就是随机变量的期望,即信息熵的定义如下:


    H[x]=-\sum_xp(x)log_2p(x)

  最终的公式就出来了!还要说明的是,当这个事情一定发生的时候,发生的概率就为1,那么它的信息量为0,信息熵就为0。

 


__EOF__

作  者大郭nice
出  处https://www.cnblogs.com/daguonice/p/11179662.html
关于博主:编程路上的小学生,热爱技术,喜欢专研。评论和私信会在第一时间回复。或者直接私信我。
版权声明:署名 - 非商业性使用 - 禁止演绎,协议普通文本 | 协议法律文本
声援博主:如果您觉得文章对您有帮助,可以点击文章右下角推荐一下。您的鼓励是博主的最大动力!

posted @   大郭nice  阅读(7180)  评论(2编辑  收藏  举报
编辑推荐:
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· 写一个简单的SQL生成工具
· AI 智能体引爆开源社区「GitHub 热点速览」
· C#/.NET/.NET Core技术前沿周刊 | 第 29 期(2025年3.1-3.9)
0
0
关注
跳至底部
点击右上角即可分享
微信分享提示