问道代码间

高校计算机教师,联系方式422591959@qq.com

导航

2020年11月16日 #

交叉熵损失(cross-entropy)和折页损失(Hinge loss)

摘要: Cross-Entropy Loss 假设是一对训练样本,是训练数据,是对于分类的one hot向量(该向量只有真实分类的参数为1,其余位数均为0)。假设通过softmax算得预测值,则损失表示如下: 很明显的我们看到这个损失涉及到了哪些参数,只有两个,那就预测值和真实值。这里的真实值采用one h 阅读全文

posted @ 2020-11-16 00:15 问道代码间 阅读(917) 评论(0) 推荐(0) 编辑