【目标检测/实例分割】OHEM+Focal Loss

一、OHEM

  1. 目的:区分难分样本

  2. 方法:多学习难例

    对于一次SGD迭代:先计算出特征图,可读RoI网络对所 有RoI执行前向计算并计算每个RoI的损失,然后选择hard RoIs。把这 些hard RoIs输入到可读可写的RoI网络中执行前向前向计算和反向传播更新网络,并把可读可写的RoI网络的参数赋值给只可读的网络,一次 迭代完成。

    

 

   3.参考资料

    https://blog.csdn.net/m0_45962052/article/details/105068998

二、Focal Loss

  1. 目的:解决难易样本不均衡问题

  2.方法:降低易分类样本的权重

  

  3. 与OHEM区别:

    Ohem按loss大小选负样本,但忽略了那些loss较小的easy的负样本,虽然这些easy负样本loss很小,但数量多,加起来的loss较大,对最终loss有一定贡献。Focol Loss想把这些loss较小的也融入到loss计算中。想融入一些easy example,希望他们能有助于训练,但又不希望他们主导loss。

    OHEM一般用在RCNN层,在类别判断上效果明显,准召上提升也较明显,Focol_Loss一般用在RPN层,可以提升目标召回,但会带来噪声。

  4.其他

    Focal loss可以用于多分类

    

 

    https://blog.csdn.net/u014311125/article/details/109470137

posted @ 2022-12-23 11:34  我若成风者  阅读(236)  评论(0编辑  收藏  举报