摘要: 信息熵、交叉熵、KL散度、JS散度、Wasserstein距离交叉熵(cross entropy)是深度学习中常用的一个概念,一般用来求目标与预测值之间的差距。以前做一些分类问题的时候,没有过多的注意,直接调用现成的库,用起来也比较方便。最近开始研究起对抗生成网络(GANs),用到了交叉熵,发现自己对交叉熵的理解有些模糊,不够深入。遂花了几天的时间从头梳理了一下相关知识点,才算透彻的理解了,特地记... 阅读全文
posted @ 2020-03-30 10:11 Jerry_Jin 阅读(2842) 评论(1) 推荐(2) 编辑