Command Palette

Search for a command to run...

3 个月前

CogVLM2:用于图像与视频理解的视觉语言模型

CogVLM2:用于图像与视频理解的视觉语言模型

摘要

继VisualGLM和CogVLM之后,我们持续探索视觉语言模型(VLMs),致力于提升视觉与语言的融合能力、构建更高效的高分辨率架构,并拓展多模态与应用场景。在此,我们提出CogVLM2系列,这是一代全新的视觉语言模型,涵盖图像与视频理解任务,包括CogVLM2、CogVLM2-Video以及GLM-4V。作为图像理解模型,CogVLM2继承了视觉专家架构,并在预训练与后训练阶段均采用优化的训练策略,支持最高达1344×1344像素的输入分辨率。作为视频理解模型,CogVLM2-Video引入多帧输入并结合时间戳信息,提出了一种自动化的时序定位数据构建方法。值得注意的是,CogVLM2系列在MMBench、MM-Vet、TextVQA、MVBench和VCGBench等多个基准测试中均取得了当前最优(SOTA)性能。所有模型均已开源,可于https://github.com/THUDM/CogVLM2 与 https://github.com/THUDM/GLM-4 获取,为该领域的持续发展贡献力量。

代码仓库

thudm/cogvlm2
官方
pytorch
GitHub 中提及
thudm/glm-4
官方
pytorch

基准测试

基准方法指标
visual-question-answering-on-mm-vetGLM-4V-Plus
GPT-4 score: 71.1
visual-question-answering-on-mm-vetGLM-4V-9B
GPT-4 score: 58.0

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供