当前位置:   article > 正文

VideoMamba: State Space Model for Efficient Video Understanding

videomamba

VideoMamba: State Space Model for Efficient Video Understanding

相关链接:arxiv github
关键字Video UnderstandingState Space ModelEfficiencyLong-context ModelingSelf-Distillation

摘要

为了应对视频理解中局部冗余和全局依赖性的双重挑战,本项工作创新性地将Mamba模型适配到视频领域,提出了VideoMamba模型。该模型克服了现有3D卷积神经网络和视频Transformer的限制。其线性复杂度算子能有效进行长期建模,这一点对于高分辨率长视频理解至关重要。通过广泛的评估,VideoMamba展现了四大核心能力:(1)可扩展性:得益于新颖的自我蒸馏技术,在没有进行大规模数据集预训练的情况下,在视觉领域实现可扩展;(2)敏感性:能够识别具有细微动作差异的短期行动;(3)长视频理解能力上的优越性,展示了对比传统特征模型的显著进步;(4)与其他模态的兼容性,展示了在多模态环境中的鲁棒性。通过这些独特优点,VideoMamba为视频理解树立了新的标杆,为全面的视频理解提供了可伸缩且高效的解决方案。

核心方法

在这里插入图片描述

  • 选择性状态空间模型(SSM):结合了2D图像处理中百川Mamba和视觉Mamba所利用的多方向SSM。
  • 线性复杂度算子:有效进行视频长期建模。
  • 自我蒸馏技术:在模型和输入尺度增加时,通过简单有效的自我蒸馏策略实现显著性能提升,无需大规模数据集预训练。
  • 双向Mamba(B-Mamba)块:用于处理3D视频序列,提升空间敏感性。
  • 双向3D扫描:将原始2D扫描扩展为适用于时空输入的不同双向3D扫描方法。

实验说明

以下是VideoMamba与其他模型在短期视频数据集上比较的结果:

模型K400(场景相关)SthSthV2(时间相关)
SlowFastR10179.8% top-1 acc63.1% top-1 acc
TimeSformer80.7% top-1 acc62.5% top-1 acc
ViViT81.3% top-1 acc65.4% top-1 acc
VideoMamba-Ti80.3% top-1 acc66.2% top-1 acc
VideoMamba-S82.7% top-1 acc68.1% top-1 acc
VideoMamba-M83.3% top-1 acc68.4% top-1 acc

在众多模型中,VideoMamba展示了优秀的性能。

结论

VideoMamba通过其独特的状态空间模型,在短期和长期视频内容理解上展现了巨大潜力。凭借效率和效果,VideoMamba有望成为长视频理解领域的基石。所有代码和模型均已开源,以促进未来研究工作。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/盐析白兔/article/detail/878407
推荐阅读
相关标签
  

闽ICP备14008679号