MoE-LLaVA

  • 北大的开源项目MoE-LLaVA:多模态的混合专家模型

    MoE-LLaVA:多模态的混合专家模型 北大的开源项目,3B的资源占用,媲美7B的能力。 只有3B个稀疏激活参数,与LLaVA-1.5-7B在各种视觉数据集上表现相当,在物体幻觉基准测试中超越了LLaVA-1.5-13B。 论文地址: https://arxiv.org/pdf/2401.15947.pdf 在线体验: https://huggingface.co/space…

    2024年2月2日