Command Palette
Search for a command to run...

摘要
行人搜索旨在从自然场景的非裁剪图像中联合定位并识别查询行人,近年来受到广泛关注。本文深入挖掘目标行人周围丰富的全局与局部上下文信息,分别称之为场景上下文与群体上下文。与以往将两类上下文分别处理的方法不同,本文提出一种统一的全局-局部上下文网络(GLCNet),旨在通过协同利用两类上下文实现特征增强。具体而言,该网络采用多阶段联合学习策略,同步优化行人重识别(re-ID)嵌入特征与上下文特征,从而获得更具判别性的增强特征表示。我们在两个主流行人搜索基准数据集(CUHK-SYSU 和 PRW)上进行了实验,并将该方法拓展至更具挑战性的场景——MovieNet 数据集上的角色搜索任务。大量实验结果表明,所提出的 GLCNet 在三个数据集上均显著优于现有最先进方法。相关源代码、预训练模型及新构建的数据集已公开发布于:https://github.com/ZhengPeng7/GLCNet。
代码仓库
zhengpeng7/glcnet
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 | 
|---|---|---|
| person-search-on-cuhk-sysu | GLCNet+CBGM | MAP: 95.8 Top-1: 96.2  | 
| person-search-on-cuhk-sysu | GLCNet | MAP: 95.5 Top-1: 96.1  | 
| person-search-on-prw | GLCNet | Top-1: 84.9 mAP: 46.7  | 
| person-search-on-prw | GLCNet+CBGM | Top-1: 87.8 mAP: 47.8  |