随笔分类 -  信息论

摘要:Jensen不等式的可视化Jenson不等式描述对于一个凸函数,期望值与函数作用后的期望值之间的关系。 对于积分为1的非负函数p(x),即 p(x)dx=1 假设f(x)为下凸函数,g(x)为任意可测函数,Jenson不等式定义如下 阅读全文
posted @ 2024-12-07 14:53 颀周 阅读(119) 评论(0) 推荐(0) 编辑
摘要:在深度学习中,我们通常对模型进行抽样并计算与真实样本之间的损失,来估计模型分布与真实分布之间的差异。并且损失可以定义得很简单,比如二范数即可。但是对于已知参数的两个确定分布之间的差异,我们就要通过推导的方式来计算了。 下面对已知均值与协方差矩阵的两个多维高斯分布之间的KL散度进行推导。当然,因为便于 阅读全文
posted @ 2020-10-12 20:29 颀周 阅读(5061) 评论(0) 推荐(5) 编辑
摘要:傅里叶(Fourier)级数是三角级数(每项都是三角函数)的一种。因为项数无限,且其中任意两个不同函数项之积在[π,π]上的积分为0,所以可以作为希尔伯特空间的一个正交系。傅里叶级数可以拟合很多周期函数。 三角函数系的正交性 三角函数系 $1,\cos x,\sin x,\cos 2x 阅读全文
posted @ 2020-05-20 15:17 颀周 阅读(2976) 评论(0) 推荐(1) 编辑
摘要:下面介绍的各种熵尽管都与数据分布的混乱度相关,但是建议把相对熵(KL散度)和交叉熵单独拿出来理解。交叉熵和相对熵是针对同一个随机变量,它们是机器学习里额外定义的用来评估两个分布差异的方式,无法用韦恩图进行观察;而后面的条件熵等则是针对不同的随机变量之间的关系(可以看完本文再回来看这句话)。 信息熵 阅读全文
posted @ 2020-01-17 19:57 颀周 阅读(2618) 评论(0) 推荐(3) 编辑

很高兴能帮到你~
点赞
more_horiz
keyboard_arrow_up dark_mode palette
选择主题
点击右上角即可分享
微信分享提示