当前位置:   article > 正文

flash-attn windows环境安装踩坑日记_windows flash_attn安装

windows flash_attn安装

        flash-attn python包是对Flash attention的开源实现。Flash attention是一种具有IO-Awareness的快速和内存效率的精确注意力,具体信息参考:FlashAttention: 具有IO-Awareness的快速和内存效率的精确注意力 - 知乎
论文:https://arxiv.org/abs/2205.14135

        因为官方发布的wheel是linux版的,所以在windows环境下安装时需要编译源码。编译源码过程非常慢,耗时很长且易于出错。尝试若干次,遇到各种疑难杂症后放弃。网上找到了有大牛编译好的windows版,下载地址:https://github.com/bdashore3/flash-attention/releases。这里有四个候选项:

        这里注意,需要安装PyTorch2.1.x和cuda 12.x。具体选择哪个下载,需要先运行pip debug --verbose,根据输出里面的Compatible tags来选择兼容的wheel文件。

        下载相应的wheel文件并安装:pip install "flash_attn-2.4.1+cu121torch2.1cxx11abiFALSE-cp39-cp39-win_amd64.whl"

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/270347
推荐阅读
相关标签
  

闽ICP备14008679号