赞
踩
1、相对第一代cogvlm多模态大模型,第二代更好的识别图像,并支持中英文;第一代不支持中文;
2、以下是智谱多模态大模型下载链接;(下载cogvlm2-llama3-chinese-chat-19B模型文件)
3、本地部署推理占用显存需要16g以上;微调需要73g显卡以上;
4、推理脚本:
CUDA_VISIBLE_DEVICES=0 python cli_demo.py --quant 4
附加:需要在cli_demo.py文件当中修改自己的本地模型路径;
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。