focal loss 类别不平衡
首先看一下paper中的一张图 已经很清晰了
其中 表示真实类别的模型预测概率
这里举一个例子:
假设一个二分类,样本x1属于类别1的pt=0.9,样本x2属于类别1的pt=0.6,显然前者更可能是类别1,假设γ=1,那么对于pt=0.9,调制系数则为0.1;对于pt=0.6,调制系数则为0.4,这个调制系数就是这个样本对loss的贡献程度,也就是权重,所以难分的样本(pt=0.6)的权重更大。Figure1中γ=0的蓝色曲线就是标准的交叉熵损失。
我觉得有必要搞清楚这个loss的来源 :
起源于目标分割任务,对于YOLO,SSD这样不需要region proposal,直接回归的检测算法,负样本太(anchor中没有目标)多了,并且大多数负样本都是容易分类的样本,对于loss的贡献很小,对于模型学习而言都是没有用的学习信号。
为了解决样本不平衡的问题 作者尝试对容易分类的样本加上低权重,对于难分类样本加上大权重。样本难易的定义就是大的样本是易分类的样本,小的样本是难分类样本
ref:https://blog.csdn.net/u014380165/article/details/77019084