2018年11月26日

样本不均衡下的分类损失函数

摘要: 通常二分类使用交叉熵损失函数,但是在样本不均衡下,训练时损失函数会偏向样本多的一方,造成训练时损失函数很小,但是对样本较小的类别识别精度不高。 解决办法之一就是给较少的类别加权,形成加权交叉熵(Weighted cross entropy loss)。今天看到两个方法将权值作为类别样本数量的函数,其 阅读全文

posted @ 2018-11-26 10:54 看看完了 阅读(10753) 评论(0) 推荐(2) 编辑

导航