赞
踩
CLIP模型及代码地址:GitHub - openai/CLIP: Contrastive Language-Image Pretraining
先创建一个anaconda虚拟环境,包含python=3.7版本,将该环境命名为clip。成功。
( pytorch=1.7.1 所需 python 版本 >=3.6,本博客决定安装 py3.7 )
conda create --name clip python=3.7
切换到虚拟环境clip中
conda activate clip
根据CLIP的github上指示,安装pytorch=1.7.1 及其他所需库。成功。
- conda install --yes -c pytorch pytorch=1.7.1 torchvision cudatoolkit=11.0
- pip install ftfy regex tqdm
最后,从github上直接安装CLIP。这一步可能会失败。
pip install git+https://github.com/openai/CLIP.git
如果失败去官网下载zip
放在这个目录下(因人而异)
运行下面代码
- pip install -r requirements.txt
- python setup.py install
最后conda list看看是不是有clip
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。