赞
踩
此Mamba指的是Mamba架构,是Albert Gu和Tri Dao两位大佬出的mamba模型,由于mamba模型比较新,很多优化问题没处理好,就导致很容易安装时容易出错
下面是安装教程,必须说明mamba_ssm和causal-conv1d是必须要安装在Linux环境里面的,这两个包目前是没有发行windos版本
符合我下面安装环境的mamba_ssm和causal-conv1d两个包放这里,需要的自取
链接:https://pan.baidu.com/s/1TJwQOSFUfl6mdlpE5IgSPg?pwd=gmw6
提取码:gmw6
先创建环境
conda create -n Mamba_env python=3.10.13
激活环境,安装torch,这里的torch版本最好是1.13.0之上的版本,cuda选择11.8或者更高,11.7通常装不上
环境激活
conda activate Mamba_env
安装torch,我这里选择的是cuda11.8版本
pip install torch==2.1.1 torchvision==0.16.1 torchaudio==2.1.1 --index-url https://download.pytorch.org/whl/cu118
torch安装完成之后就直接按照packaging
conda install packaging
packaging安装结束之后,下面就开始安装causal-conv1d和mamba_ssm,这两个包build wheel的时候非常久,需要耐心等待一下
先安装causal-conv1d,我这里装的是1.1.1版本,causal-conv1d通常能直接通过pip在线成功装上,但是有时候还是会失败,通常就是下载失败的原因,这里我没遇到,但是解决办法都是离线安装,和下面mamba_ssm的处理方法一样
pip install causal-conv1d==1.1.1
causal-conv1d成功安装
causal-conv1d安装成功之后,就开始安装mamba_ssm,还是先pip安装
pip install mamba_ssm==1.0.1
然后漫长的等待build wheel,通常就会报错,错误如下
下面我用红线画出这个地址,复制这个地址到浏览器,直接下载离线包,然后安装这个离线包就成功了
离线 pip安装
- cd 到你包所在的路径
- pip install mamba_ssm-1.0.1+cu118torch2.1cxx11abiFALSE-cp310-cp310-linux_x86_64.whl
mamba_ssm成功安装
检验一下
包的导入没有问题,已经成功安装causal-conv1d和mamba_ssm
看到这里,如果还没能在liunx上安装成功,我建议把这个环境删掉,根据下面的安装指令一步步来
其实到这里还没能安装成功极大肯就是cudatooklit没有安装或者版本不对,为了保证mamba的安装成功建议如下流程依次安装,使用于这个环境的causal-conv1d 1.1.1和mamba_ssm 1.0.1的包在文章前面的网站进行下载
- conda create -n your_env_name python=3.10.13
- conda activate your_env_name
- conda install cudatoolkit==11.8 -c nvidia
- pip install torch==2.1.1 torchvision==0.16.1 torchaudio==2.1.1 --index-url https://download.pytorch.org/whl/cu118
- conda install -c "nvidia/label/cuda-11.8.0" cuda-nvcc
- conda install packaging
- pip install causal-conv1d==1.1.1
- pip install mamba-ssm==1.0.1
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。