赞
踩
本文尝试使用Mamba主干网络替换YoloV8的主干网络,打造最新的Yolo-Mamba网络。
在医学图像分析的最新进展中,卷积神经网络(CNN)和视觉转换器(ViT)都取得了显著的基准成绩。前者通过其卷积操作在捕获局部特征方面表现出色,而后者则通过利用自注意力机制实现了出色的全局上下文理解。然而,这两种架构在有效建模医学图像中的长距离依赖关系时都存在局限,这对于精确分割至关重要。受到Mamba架构的启发,该架构因其处理长序列和全局上下文信息的能力以及作为国家空间模型(SSM)的增强计算效率而著称,我们提出了Mamba-UNet,这是一种将U-Net在医学图像分割中的能力与Mamba的能力相结合的新型架构。
Mamba-UNet采用了一种纯视觉Mamba(VMamba)基础的编码器-解码器结构,其中融入了跳跃连接,以在网络的不同尺度上保留空间信息。这种设计促进了全面的特征学习过程,能够捕获医学图像中的复杂细节和更广泛的语义上下文。我们在VMamba块内引入了一种新型集成机制,以确保编码器和解码器路径之间的无缝连接和信息流动,从而提高分割性能。
我们在公开可用的MRI心脏多结构分割数据集上进行了实验。结果表明,在相同的超参数设置下,Mamba-UNet在医学图像分割方面优于UNet和SwinUNet。源代码和基线实现可在https://github.com/ziyangwang007/Mamba-UNet上找到。
关键词:医学图像分割 - 卷积 - 转换器 - Mamba - 状态空间模型
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。