当前位置:   article > 正文

clip安装使用教程_openai/clip-vit-base-patch32

openai/clip-vit-base-patch32

1.配置环境 安装依赖

  1. pip install transformers
  2. pip install torch

看缺失什么包自己先安装好

2.安装clip

进入https://github.com/openai/CLIP,先将CLIP文件夹下载到本地,随便什么位置。即点击下图中的Download ZIP,下载到本地后进行解压,即得到文件夹CLIP-main,保存位置没有讲究。

最后在cmd下切换到你保存上述文件夹的位置,cd进入文件夹CLIP-main,然后输入

python setup.py install

注:本来是想clone下来,但报错error:subprocess-exited-with-error,采用以上方法解决

接着进入https://huggingface.co/models,选择自己要用的模型,我这里用的是clip-vit-base-patch32

下载这些文件,将它们放在你手动创建的openai/clip-vit-base-patch32文件夹中

注:刚开始直接运行代码报错,Can't load tokenizer for 'openai/clip-vit-base-patch32'. If you were trying to load it from 'https://huggingface.co/models', make sure you don't have a local directory with the same name. 依靠上述方法解决,类似的报错都可以依靠上述方法解决,直接下载本地文件然后放入对应的文件夹就行

3.运行代码

  1. import torch
  2. import clip
  3. from PIL import Image
  4. device = "cuda" if torch.cuda.is_available() else "cpu"
  5. model, preprocess = clip.load("ViT-B/32", device=device)
  6. image = preprocess(Image.open("temp.jpg")).unsqueeze(0).to(device)
  7. text = clip.tokenize(["a diagram", "a dog", "a cat"]).to(device)
  8. with torch.no_grad():
  9. image_features = model.encode_image(image)
  10. text_features = model.encode_text(text)
  11. logits_per_image, logits_per_text = model(image, text)
  12. probs = logits_per_image.softmax(dim=-1).cpu().numpy()
  13. print("Label probs:", probs)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/448915
推荐阅读
相关标签
  

闽ICP备14008679号