交叉熵损失(cross-entropy)和折页损失(Hinge loss)
摘要:
Cross-Entropy Loss 假设是一对训练样本,是训练数据,是对于分类的one hot向量(该向量只有真实分类的参数为1,其余位数均为0)。假设通过softmax算得预测值,则损失表示如下: 很明显的我们看到这个损失涉及到了哪些参数,只有两个,那就预测值和真实值。这里的真实值采用one h 阅读全文
posted @ 2020-11-16 00:15 问道代码间 阅读(946) 评论(0) 推荐(0) 编辑