当前位置:   article > 正文

本地部署 CogVLM

cogvlm

CogVLM 是什么

  • CogVLM 是一个强大的开源视觉语言模型(VLM)。CogVLM-17B 拥有 100 亿视觉参数和 70 亿语言参数。

  • CogVLM-17B 在 10 个经典跨模态基准测试上取得了 SOTA 性能,包括 NoCaps、Flicker30k captioning、RefCOCO、RefCOCO+、RefCOCOg、Visual7W、GQA、ScienceQA、VizWiz VQA 和 TDIUC,而在 VQAv2、OKVQA、TextVQA、COCO captioning 等方面则排名第二,超越或与 PaLI-X 55B 持平。

CogVLM Github 地址

https://github.com/THUDM/CogVLM.git

部署 CogVLM

克隆代码,

git clone https://github.com/THUDM/CogVLM.git; cd CogVLM
  • 1

创建虚拟环境,

conda create -n cogvlm python=3.11 -y
conda activate cogvlm
  • 1
  • 2

安装 PyTorch,

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
conda install -y -c "nvidia/label/cuda-12.1.0" cuda-runtime
  • 1
  • 2

安装依赖项,

pip install -r requirements.txt
python -m spacy download en_core_web_sm
  • 1
  • 2

启动 CogVLM

python web_demo.py --from_pretrained cogvlm-chat --version chat --english --bf16
  • 1

未完待续!

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/人工智能uu/article/detail/898001
推荐阅读
相关标签
  

闽ICP备14008679号