Command Palette
Search for a command to run...
Baoqi Pei; Guo Chen; Jilan Xu; Yuping He; Yicheng Liu; Kanghua Pan; Yifei Huang; Yali Wang; Tong Lu; Limin Wang; Yu Qiao

摘要
在本报告中,我们介绍了我们在CVPR 2024 EgoVis挑战赛中的解决方案,包括Ego4D挑战赛的五个赛道和EPIC-Kitchens挑战赛的三个赛道。基于视频-语言双塔模型,并利用我们精心整理的第一人称视角视频数据,我们提出了一种名为EgoVideo的新基础模型。该模型专门针对第一人称视角视频的独特特性设计,为我们的竞赛提交提供了强大的支持。在Ego4D挑战赛中,我们解决了多项任务,包括自然语言查询、步骤定位、时刻查询、短期对象交互预测和长期行为预测。此外,我们还参与了EPIC-Kitchens挑战赛,在动作识别、多实例检索和跨域动作识别等赛道上进行了研究。通过将EgoVideo适应于这些多样化的任务,我们展示了其在不同第一人称视角视频分析场景中的灵活性和有效性,证明了EgoVideo作为第一人称视角基础模型的强大表示能力。我们的代码库和预训练模型已公开发布于https://github.com/OpenGVLab/EgoVideo。
代码仓库
opengvlab/egovideo
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| short-term-object-interaction-anticipation-on | EgoVideo | Noun (Top5 mAP): 31.08 Noun+TTC (Top5 mAP): 12.41 Noun+Verb(Top5 mAP): 16.18 Overall (Top5 mAP): 7.21 |