当前位置:   article > 正文

flash-attn库安装记录_flash_attn

flash_attn

flash-attn库安装记录
第一步:
安装好cuda11.7
第二步:
使用代码export CUDA_HOME=/usr/local/cuda-11.7让库找到cuda路径
第三步:
使用pip install flash-attn --no-build-isolation安装
安装成功显示
在这里插入图片描述
更新:
手动下载flash-attn库网址未为https://github.com/Dao-AILab/flash-attention/releases

更新2:
安装cuda12.2,cudnn8.9.5-12.2
第一步下载:git clone https://github.com/Dao-AILab/flash-attention
第二步引导cuda12.2路径:export CUDA_HOME=/usr/local/cuda-12.2
在这里插入图片描述

第三步:cd flash-attention && pip install .
在这里插入图片描述

第四步:pip install csrc/layer_norm
在这里插入图片描述

第五步:pip install csrc/rotary
在这里插入图片描述
最后成功!!!

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/270334
推荐阅读
  

闽ICP备14008679号