当前位置:   article > 正文

【代码实践】使用CLIP做一些多模态的事情_clip代码set_up.py

clip代码set_up.py

CLIP到底有多强,让我们来试试吧!

CLIP模型及代码地址:GitHub - openai/CLIP: Contrastive Language-Image Pretraining

一、准备环境

先创建一个anaconda虚拟环境,包含python=3.7版本,将该环境命名为clip。成功。

( pytorch=1.7.1 所需 python 版本 >=3.6,本博客决定安装 py3.7 )

  1. conda create --name clip python=3.7
  2. # 切换到虚拟环境clip中
  3. conda activate clip

根据CLIP的github上指示,安装pytorch=1.7.1 及其他所需库。成功。

  1. conda install --yes -c pytorch pytorch=1.7.1 torchvision cudatoolkit=11.0
  2. pip install ftfy regex tqdm

最后,从github上直接安装CLIP。这一步可能会失败。

pip install git+https://github.com/openai/CLIP.git

如果无法访问github网址,会出现如下错误:

解决方法是从github镜像网站上拉取CLIP项目的完整zip包,将下载到的CLIP-main.zip文件保存在本地路径中,然后从本地直接安装CLIP库。

具体代码如下:

  1. # 进入CLIP-main.zip所在路径
  2. # 解压.zip文件,然后进入解压后的文件夹
  3. unzip CLIP-main.zip
  4. cd CLIP-main
  5. # 运行setup.py文件,完成本地安装clip
  6. python setup.py install

然后查看已安装的库,能找到clip就说明安装成功了,如下图所示:

二、测试CLIP

使用一个简单的图像分类代码测试clip是否能够正常运行,如下图是海贼王里面的人物艾斯,将该图片命名为Ace.jpeg。

运行下面的代码,希望模型能够识别出该图像是【一个人,一条狗,一只猫】中的哪一类:

  1. import torch
  2. import clip
  3. from PIL import Image
  4. device = "cuda" if torch.cuda.is_available() else "cpu"
  5. # 加载预训练好的模型
  6. model, preprocess = clip.load("ViT-B/32", device=device)
  7. # 读取艾斯的图片和候选类别文字
  8. image = preprocess(Image.open("Ace.jpeg")).unsqueeze(0).to(device)
  9. text = clip.tokenize(["a man", "a dog", "a cat"]).to(device)
  10. with torch.no_grad():
  11. # 计算每一张图像和每一个文本的相似度值
  12. logits_per_image, logits_per_text = model(image, text)
  13. # 对该image与每一个text的相似度值进行softmax
  14. probs = logits_per_image.softmax(dim=-1).cpu().numpy()
  15. print("Label probs:", probs)

首次运行,代码会加载openai已经训练好的ViT-B/32模型,如下图所示:

 等模型加载完毕,就会执行图像分类了,从结果可以看出,CLIP以0.928的概率判定该图像是一个man,而不是dog或者cat。


非常神奇的是,如果将代码的候选text选项中 “a man” 替换成艾斯的名字 “Ace”,让CLIP判断图像是否是Ace,结果甚至更好,CLIP以0.994的概率判定该图像是艾斯!

text = clip.tokenize(["Ace", "a dog", "a cat"]).to(device)

  

三、API介绍及使用

1. clip.available_models()

  1. import torch
  2. import clip
  3. print(clip.available_models())

该方法输出CLIP的预训练好的图像编码器名称:

['RN50', 'RN101', 'RN50x4', 'RN50x16', 'RN50x64', 'ViT-B/32', 'ViT-B/16', 'ViT-L/14']

2. clip.load()

该方法接受4个输入参数,得到2个输出结果。

参数:

  • name:字符串。用于指定CLIP使用的图像编码器模型。可以是模型名称,也就是clip.available_models()的输出结果;或者是这些模型所在的路径。
  • device:字符串或者torch.device的输出结果。用于指定加载模型的设备,gpu或者cpu。
  • jit:布尔值。是否加载优化的JIT模型。
  • download_root:字符串。用于指定下载的模型的保存地址,默认值如下代码所示。
model, proprecess = clip.load(name="RN50", device="cpu", jit=False, download_root="~/.cache/clip")

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/387658
推荐阅读
相关标签
  

闽ICP备14008679号