Command Palette

Search for a command to run...

5 个月前

EgoVideo: 探索以自我为中心的基础模型及其下游适应

Baoqi Pei; Guo Chen; Jilan Xu; Yuping He; Yicheng Liu; Kanghua Pan; Yifei Huang; Yali Wang; Tong Lu; Limin Wang; Yu Qiao

EgoVideo: 探索以自我为中心的基础模型及其下游适应

摘要

在本报告中,我们介绍了我们在CVPR 2024 EgoVis挑战赛中的解决方案,包括Ego4D挑战赛的五个赛道和EPIC-Kitchens挑战赛的三个赛道。基于视频-语言双塔模型,并利用我们精心整理的第一人称视角视频数据,我们提出了一种名为EgoVideo的新基础模型。该模型专门针对第一人称视角视频的独特特性设计,为我们的竞赛提交提供了强大的支持。在Ego4D挑战赛中,我们解决了多项任务,包括自然语言查询、步骤定位、时刻查询、短期对象交互预测和长期行为预测。此外,我们还参与了EPIC-Kitchens挑战赛,在动作识别、多实例检索和跨域动作识别等赛道上进行了研究。通过将EgoVideo适应于这些多样化的任务,我们展示了其在不同第一人称视角视频分析场景中的灵活性和有效性,证明了EgoVideo作为第一人称视角基础模型的强大表示能力。我们的代码库和预训练模型已公开发布于https://github.com/OpenGVLab/EgoVideo。

代码仓库

opengvlab/egovideo
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
short-term-object-interaction-anticipation-onEgoVideo
Noun (Top5 mAP): 31.08
Noun+TTC (Top5 mAP): 12.41
Noun+Verb(Top5 mAP): 16.18
Overall (Top5 mAP): 7.21

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供