首页 > 技术文章 > 学习记录之Focal loss

ChrisInsistPy 2018-09-18 16:06 原文

目标检测中,会有大量的负样本,也就是背景样本,如果使得正样本对loss的影响更大,是focal loss提出来解决的方案。

作者以二分类为例进行说明: 
首先是我们常使用的交叉熵损失函数:

      

  

   

要对类别不均衡问题对loss的贡献进行一个控制,即加上一个控制权重即可,最初作者的想法即如下这样,对于属于少数类别的样本,增大α即可 :

 

但这样有一个问题,它仅仅解决了正负样本之间的平衡问题,并没有区分易分/难分样本,因此后面有了如下的形式: 

显然,样本越易分,pt越大,则贡献的loss就越小,相对来说,难分样本所占的比重就会变大。因此,通过这个公式区分了易分/难分样本,在实际中,作者采用如下公式,即综合了上述两个公式的形式

 

推荐阅读