摘要: pytorch loss 参考文献: https://blog.csdn.net/zhangxb35/article/details/72464152?utm_source=itdadao&utm_medium=referral loss 测试 阅读全文
posted @ 2018-10-25 23:18 overfitover 阅读(5992) 评论(0) 推荐(0) 编辑
摘要: 交叉熵 分类问题常用的损失函数为交叉熵(Cross Entropy Loss)。 交叉熵描述了两个概率分布之间的距离,交叉熵越小说明两者之间越接近。 原理这篇博客介绍的简单清晰: https://blog.csdn.net/xg123321123/article/details/52864830 总 阅读全文
posted @ 2018-10-25 22:21 overfitover 阅读(11504) 评论(0) 推荐(0) 编辑