训练
匹配策略和难负样本挖掘
称候选框是正的,如果与某个GT有最大的IOU或者IOU大于某个阈值(0.5)。其余候选框是负的。
但这样的定义会造成大多数候选框是负的(即正负样本的显著不均衡),所以文中使用hard negtive example mining,即将所有负候选框按loss从大到小排序,取top N,使的负:正 ~= 3:1,这样训练速度更快也更稳定。
损失函数
候选框设计
数据增益
base network
实验
可以看到SSD对相似类的辨别能力稍微差点(尤其是动物),这可能SSD对所有的类都共享位置。(也就是说对默认框回归的时候不是按类回归的,RCNN系列就是按类回归的)。
可以看到SSD300对小目标的效果不是很好,这点一点都不奇怪,因为小目标在顶层只含有非常少的信息。当然放大到SSD512的效果就能提升。另一方面,SSD在大目标检测上效果非常好。SSD对不同长宽比的目标也很鲁棒,因为在各个特征映射上都用不同长宽比的默认框。
可以看出:
1. 数据增益是关键的
2. 更多的默认框是有益的
3. holes算法能让速度更快~20%
在不同层上使用不同尺度大小的默认框是有益的。
网友评论