HyperAIHyperAI

Command Palette

Search for a command to run...

CuMo: 通过协同再利用的专家混合模型扩展多模态LLM

Jiachen Li Xinyao Wang Sijie Zhu Chia-Wen Kuo Lu Xu Fan Chen Jitesh Jain Humphrey Shi Longyin Wen

摘要

近期在多模态大语言模型(Multimodal Large Language Models, LLMs)领域的进展主要集中在通过增加文本-图像对数据和增强LLMs来提升其在多模态任务中的性能。然而,这些扩展方法计算成本高昂,并且忽视了从视觉方面改进模型能力的重要性。受混合专家(Mixture-of-Experts, MoE)在LLMs中成功应用的启发,该方法在训练过程中提高了模型的可扩展性,同时保持推理成本与较小模型相似,我们提出了CuMo。CuMo将共循环Top-K稀疏门控混合专家模块引入视觉编码器和MLP连接器中,从而在推理时以最小的额外激活参数增强多模态LLMs。CuMo首先预训练MLP模块,然后在视觉指令调优阶段从预训练的MLP模块初始化每个专家。辅助损失用于确保专家之间的负载均衡。CuMo在各种VQA和视觉指令跟随基准测试中超越了当前最先进的多模态LLMs,且仅使用开源数据集进行训练。CuMo的代码和模型权重已开源,可在https://github.com/SHI-Labs/CuMo 获取。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供