当前位置:   article > 正文

YOLOv9改进策略 | 添加注意力篇 | BiFormer双层路由注意力机制(Bi-level Routing Attention)_bilevei routing attention

bilevei routing attention

一、本文介绍

BiFormer是一种结合了Bi-level Routing Attention的视觉Transformer模型BiFormer模型的核心思想是引入了双层路由注意力机制。在BiFormer中,每个图像块都与一个位置路由器相关联这些位置路由器根据特定的规则将图像块分配给上层和下层路由器。上层路由器负责捕捉全局上下文信息,而下层路由器则负责捕捉局部区域的细节。

具体来说,上层路由器通过全局自注意力机制对所有图像块进行交互,并生成全局图像表示。下层路由器则使用局部自注意力机制对每个图像块与其邻近的图像块进行交互,并生成局部图像表示。通过这种双层路由注意力机制,BiFormer能够同时捕捉全局和局部的特征信息,从而提高了模型在视觉任务中的性能。

本文主要通过对YOLOv9模型添加Biformer机制为例,让大家对于YOLOv9模型添加注意力机制有一个深入的理解,通过本文你不只能够学会添加Biformer注意力机制,同时可以举一反三学会其它的注意力机制的添加。

Biformer适用检测目标->适合处理大尺度目标、小尺度目标、密集目标和遮挡目标的检测 

专栏地址:YOLOv9有效涨点专栏-持续复现各种顶会内容-有效涨点-全网改进最全的专栏 

目录

一、本文介绍

二、Biformer的作用机制

三、Biformer的优劣势

四、Biformer的结构

五、添加Biformer注意力机制

5.1 Biformer的核心代码

5.2 手把手教你添加Biformer注意力机制 

5.2.1 修改一

​5.2.2 修改二

5.2.3 修改三 

5.2.4 修改四

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/991546
推荐阅读
  

闽ICP备14008679号