赞
踩
MLM之CogVLM2:CogVLM2(基于Llama-3-8B-Instruct 模型进行微调)的简介、安装和使用方法、案例应用之详细攻略
目录
我们推出了新一代的 CogVLM2 系列模型并开源了两款基于 Meta-Llama-3-8B-Instruct 开源模型。与上一代的 CogVLM 开源模型相比,CogVLM2 系列开源模型具有以下改进:
TextVQA
, DocVQA
。GitHub地址:https://github.com/THUDM/CogVLM2
News:2024/5/24:我们发布了 Int4 版本模型,仅需要 16GB 显存即可进行推理。欢迎前来体验!
News:2024/5/20:我们发布了下一代模型 CogVLM2,它基于 llama3-8b,在大多数情况下与 GPT-4V 相当(或更好)!欢迎下载!
模型名称 | cogvlm2-llama3-chat-19B | cogvlm2-llama3-chinese-chat-19B |
---|---|---|
基座模型 | Meta-Llama-3-8B-Instruct | Meta-Llama-3-8B-Instruct |
语言 | 英文 | 中文、英文 |
模型大小 | 19B | 19B |
任务 | 图像理解,对话模型 | 图像理解,对话模型 |
模型链接 | https://www.wpsshop.cn/w/小丑西瓜9/article/detail/716906 推荐阅读 相关标签 Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。 |