当前位置:   article > 正文

Yolov5/Yolov7改进---注意力机制:Polarized Self-Attention,效果秒杀CBAM、SE_yolov5添加polarized selfattention

yolov5添加polarized selfattention

目录

 1. Polarized Self-Attention

 2. 基于Yolov5的Polarized Self-Attention实现 

 2.1 加入 common.py中

 2.2  加入yolo.py中:

2.3  yolov5s_PolarizedSelfAttention.yaml


 1. Polarized Self-Attention

 论文:https://export.arxiv.org/pdf/2107.00782.pdf

        Polarized self-attention是一种改进的自注意力机制,旨在提高自注意力模型的效率和准确性。传统的自注意力机制通常需要计算所有位置对所有位置的注意力,这会导致计算复杂度的增加和模型的训练时间的延长。Polarized self-attention通过引入极化因子来减少需要计算的位置对之间的注意力,从而提高自注意力模型的效率。极化因子是一个向量,可以将其与每个位置的向量点积,以确定哪些位置需要进行注意力计算。这种方法可以通过在保持准确度的同时减少计算量来提高自注意力模型的效率。 

        基于双重注意力机制,本文针对Pixel-wise regression的任务,提出了一种更加精细的双重注意力机制——极化自注意力(Polarized Self-Attention)。作为一个即插即用的模块,在人体姿态估计和语义分割任务上,作者将它用在了以前的SOTA模型上,并达到了新的SOTA性能,霸榜COCO人体姿态估计和Cityscapes语义分

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/神奇cpp/article/detail/749258
推荐阅读
相关标签
  

闽ICP备14008679号