深度学习 概率知识

 贝叶斯

 

 高斯分布

 

 

 

交叉熵

根据香浓理论,熵是描述信息量的一种度量,如果某一事件发生的概率越小,也就是不确定性越大,那么熵就越大,或者说是信息量越大

 

 


我们要让交叉熵尽可能地小,模型预测效果越好

在计算CrossEntropyLosss时,真实的label(一个标量)被处理成onehot编码的形式。

交叉熵在机器学习中的运用:引用博客https://blog.csdn.net/tsyccnh/article/details/79163834

 

一些公式变形

 

posted on 2020-02-17 11:57  cltt  阅读(191)  评论(0编辑  收藏  举报

导航