KL散度(相对熵)
KL(P||Q)=∑p(x)logp(x)q(x)
KL(Q||P)=∑q(x)logq(x)p(x)
用来衡量两个分布之间的差异,交叉熵−p(x)log(q(x))减去信息熵−p(x)log(p(x))
由于KL散度的非对称性,故更加方便使用的JS散度诞生
JS散度
设M=12(P+Q)
则有
JSD(P||Q)=12KL(P||M)+12KL(Q||M)=12∑p(x)log(2p(x)p(x)+q(x))+12∑q(x)log(2q(x)p(x)+q(x))=12∑p(x)log(p(x)p(x)+q(x))+12∑q(x)log(q(x)p(x)+q(x))+log2
当分布P和分布Q完全不重叠时,JS散度为常数log2,梯度为0,无法反向传播
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· AI 智能体引爆开源社区「GitHub 热点速览」
· 从HTTP原因短语缺失研究HTTP/2和HTTP/3的设计差异
· 三行代码完成国际化适配,妙~啊~