您的位置:首页 > 移动开发 > Objective-C

RetinaNet学习笔记(Focal Loss for Dense Object Detection2018)

2019-10-13 21:18 2561 查看
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.csdn.net/xiaoshuzi666/article/details/102538165

一、论文关键点
1.RetinaNet(ResNet+FPN+FCN)是one-stage目标检测框架,它的主要创新点是把损失函数从Cross-Entropy Loss进化到Focal Loss。
其中,它采用的FPN结构如图所示(可以看到层与层之间的来回关联):

2.它采用的Focal loss:

CE是二元交叉熵的形式,而FL(Focal loss)加了个系数:(1-Pt)^γ,设置γ>0,这样使得类别概率Pt越大,loss越低,而类别概率低的loss越大(可以减少类别不平衡的影响)。
另外,还有一种Balanced CE loss(平衡二元交叉熵损失,对正样本的损失值用权重因子α∈[0,1],对负样本用权重因子1-α,从数量角度来平衡正负样本损失值)的表达式为:

论文中也做了同时使用Balanced CE loss和Focal loss的实验,其表达式如下:

二、对自己的启发

作者做了很多对比实验:

(a)为调整α验证Balanced CE loss对模型优化的影响;
(b)为联合调整α和γ验证哪种搭配下会得到最优模型;
(c)为联合调整预选框尺寸和宽高比例验证哪种搭配下会得到最优模型;
(d)为Focal loss与OHEM在线困难样本采样方法的对比;
(e)为使用不同基础网络和不同图像尺寸验证Focal loss对模型优化的影响。
这意味着写论文的时候,要针对参数做各种各样的对比实验,关注细节,提高工作量。

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: