[Medical Image] 图像中用到的信息论中的一些概念公式
1 熵
1.1 香农熵(Shannon Entropy)#
用来描述信息量的多少,随机变量不确定性的度量(metric),给定一个随机变量
1.2 联合熵(Joint Entropy)#
衡量一对随机变量所包含的信息量,两个随机变量联合不确定性的度量,联合熵描述了随机变量的相关性,越小越相关及联合分布
1.3 条件熵(Conditional Entropy)#
已知随机变量的前提下,随机变量提供的信息量,依据
对于联合分布和边缘分布,把或的熵称作边缘熵,于是有
1.4 累计剩余熵(Cumulative Residual Entropy,CRE)#
将香农熵定义中的概率分布换成累计概率分布
1.5 瑞利熵(RE)#
瑞利熵时香浓熵的一种推广形式,又称作熵
当,求得瑞利熵的极限为香农熵,求极限也很简单,利用洛必达法则即可求得即可
2 相似性度量
2.1 互信息(Mutual Information,MI)#
互信息衡量随随机变量之间的依赖程度,用来测量联合概率分布和二者完全独立时的分布之间的距离,使用KL散度(或称为相对熵)来定义
互信息、联合熵、边缘熵、条件熵之间有紧密的关系
互信息表示中包含的信息的多少,也是对称的中包含的多少。若独立则,若一一相关,则
2.2 归一化互信息(Normalized Mutual Information,NMI)#
为了解决互信息对图像部分重叠区域的敏感性,提出了NMI
2.3 熵相关系数(Entropy Correlation Coefficient,ECC)#
可以看作另一种归一化互信息
2.4 互累计剩余熵(Cross Cumulative Residual Entropy,CRE)#
和互信息类似,只不过这里的熵换成了累计剩余熵
2.5 Alpha互信息(Alpha Mutual Information,)#
根据熵得出熵
2.6 相对熵(KL散度)#
相对熵也称作为KL散度,可以衡量两个分布之间的差异,是上的两个分布
2.7 交叉熵#
是KL散度的一部分
2.8 詹森香农散度(JS散度)#
因为KL散度不对称,所以提出了JS散度
2.9 詹森瑞利散度#
作者:芒果和小猫
出处:https://www.cnblogs.com/WAoyu/p/11913581.html
版权:本作品采用「署名-非商业性使用-相同方式共享 4.0 国际」许可协议进行许可。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律