Command Palette
Search for a command to run...
Zhipeng Zhang Houwen Peng Jianlong Fu Bing Li Weiming Hu

摘要
基于锚框(anchor-based)的孪生追踪器在精度方面已取得显著进展,但其进一步提升受限于追踪鲁棒性的滞后。我们发现,其根本原因在于:在基于锚框的方法中,回归网络仅在正样本锚框(即IoU ≥ 0.6)上进行训练。这一机制导致对与目标物体重叠度较低的锚框难以进行有效优化。为此,本文提出一种新型的、面向目标的无锚框(anchor-free)网络以解决该问题。首先,我们摒弃对参考锚框的迭代修正,转而以无锚框的方式直接预测目标物体的位置与尺度。由于真实标注框中的每个像素均经过充分训练,因此在推理阶段,追踪器能够有效校正目标预测的不准确性。其次,我们引入一个特征对齐模块,从预测的边界框中学习具有目标感知能力的特征表示。该目标感知特征可进一步提升对目标与背景的分类性能。此外,我们构建了一种基于无锚框模型的新型追踪框架。实验结果表明,所提出的无锚框追踪器在五个主流基准数据集(包括VOT-2018、VOT-2019、OTB-100、GOT-10k和LaSOT)上均达到了当前最优性能。代码已开源,地址为:https://github.com/researchmm/TracKit。
代码仓库
researchmm/TracKit
官方
pytorch
GitHub 中提及
researchmm/SiamDW
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 | 
|---|---|---|
| video-object-tracking-on-nv-vot211 | Ocean | AUC: 32.86 Precision: 46.72  | 
| visual-object-tracking-on-got-10k | Ocean | Average Overlap: 61.1 Success Rate 0.5: 72.1  | 
| visual-object-tracking-on-vot2018 | Ocean | Expected Average Overlap (EAO): 0.467  | 
| visual-object-tracking-on-vot2019 | Ocean | Expected Average Overlap (EAO): 0.327  |