赞
踩
cuda12.0环境;pytorch 2.1.2+cu118;transformers 4.38.0
pip install flash-attn --no-build-isolation --use-pep517
参考:
https://github.com/Dao-AILab/flash-attention
FlashAttention2暂时不支持 T卡,后续支持,如果要使用先用1.X版本
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。