当前位置:   article > 正文

FlashAttention2 安装;报错 RuntimeError: FlashAttention only supports Ampere GPUs or newer.

runtimeerror: flashattention only supports ampere gpus or newer.

1、FlashAttention2 安装

cuda12.0环境;pytorch 2.1.2+cu118;transformers 4.38.0

pip install flash-attn --no-build-isolation --use-pep517 
  • 1

在这里插入图片描述

2、报错 RuntimeError: FlashAttention only supports Ampere GPUs or newer.

参考:
https://github.com/Dao-AILab/flash-attention
FlashAttention2暂时不支持 T卡,后续支持,如果要使用先用1.X版本

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/270264
推荐阅读
  

闽ICP备14008679号