DeepSeek的线上面试 —— DPO为什么用KL散度,不用交叉熵? 机器学习中什么时候必须用KL散度,什么时候必须用交叉熵,什么时候二者可互换——(续)

前文地址:

https://www.cnblogs.com/xyz/p/18707896



说下我个人的一些观点。

我认为:

数学意义上的等价并不是机器学习算法中的优先考虑的选项。虽然机器学习或者说AI是和数学领域难以割舍开的,但是机器学习和AI并不是数学,二者并不等价,或者说数学领域的评判标准和机器学习领域的评判标准并不一致。在机器学习领域更多的是要看 work 不 work。虽然二者在数学意义上等价,但是在数学形式上却不同,KL散度的数学形式更适合于两个概率分布之间的差异的体现。







posted on   Angry_Panda  阅读(14)  评论(0编辑  收藏  举报

相关博文:
阅读排行:
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 地球OL攻略 —— 某应届生求职总结
· 提示词工程——AI应用必不可少的技术
· Open-Sora 2.0 重磅开源!
· 周边上新:园子的第一款马克杯温暖上架
历史上的今天:
2024-02-27 Hession-free 的共轭梯度法的高效计算版本的部分代码(pytorch实现,实现一阶求导的一次计算重复使用)
2020-02-27 【转载】 BIOS设置选项详细解释——CPU核心篇
2020-02-27 【转载】 NVIDIA RTX2080ti不支持P2P Access,这是真的么?
2018-02-27 Centos7 环境下开机 自启动服务(service) 设置的改变 (命令systemctl 和 chkconfig用法区别比较)

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

点击右上角即可分享
微信分享提示