Command Palette
Search for a command to run...

摘要
在行人检索任务中,我们的目标是从一个查询场景中定位目标行人,并在其他图库场景(gallery scenes)中进行匹配。该检索操作的计算成本与图库场景的数量直接相关,因此减少可能的候选场景数量具有重要意义。本文提出并验证了一种新型模块——图库过滤网络(Gallery Filter Network, GFN),该模块能够高效地在检索过程中排除明显不相关的图库场景,从而提升剩余场景中检测到的行人匹配得分。实验表明,GFN在多种不同条件下均表现出良好的鲁棒性,涵盖跨摄像头、遮挡以及低分辨率等复杂场景。此外,我们构建了基础版本的SeqNeXt行人检索模型,该模型在性能上优于并简化了原始的SeqNet模型。实验结果表明,在标准的PRW和CUHK-SYSU行人检索数据集上,SeqNeXt与GFN相结合的方案显著优于当前其他先进方法。为便于本模型及其他相关模型的实验研究,我们还提供了标准化的数据处理与评估流程工具,以支持行人检索领域的系统化研究。
代码仓库
lukejaffe/gfn
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 | 
|---|---|---|
| person-search-on-cuhk-sysu | SeqNeXt | MAP: 96.1 Top-1: 96.5  | 
| person-search-on-cuhk-sysu | SeqNeXt+GFN | MAP: 96.4 Top-1: 97.0  | 
| person-search-on-prw | SeqNeXt | Top-1: 89.5 mAP: 57.6  |