赞
踩
项目主页:https://github.com/QwenLM/Qwen-VL
通义前问网页在线使用
——(文本问答,图片理解,文档解析):https://tongyi.aliyun.com/qianwen/
论文
v3. : 一个全能的视觉语言模型
23.10 Qwen-VL: A Versatile Vision-Language Model for Understanding, Localization, Text Reading, and Beyond
Qwen-VL-Chat
部分示例:支持多个图像输入、多轮对话、文本阅读、定位、细粒度识别和理解能力
Qwen-VL
是阿里基于语言模型Qwen-7B
(LLMs),研发的大规模视觉语言模型(Large Vision Language Model, LVLM)
Qwen-VL = 大语言模型(Qwen-7B) + 视觉图片特征编码器(Openclip’s
ViT-bigG
) + 位置感知视觉语言适配器(可训练Adapter)+约15亿
训练数据+多轮训练
功能上:
多个图像
输入下载项目到本地,也可手动下载
git clone https://github.com/QwenLM/Qwen-VL.git
根据自己显卡驱动,在pytorch官方选择对应的版本: https://pytorch.org/get-started/previous-versions/
conda create -n qwen-vl python=3.10 -y
conda activate qwen-vl
conda install pytorch==2.1.2 torchvision==0.16.2 torchaudio==2.1.2 pytorch-cuda=11.8 -c pytorch -c nvidia
conda activate qwen-vl
cd Qwen-VL
pip install -r requirements.txt
https://modelscope.cn/models/qwen/Qwen-VL-Chat/summary
pip install modelscope -U
启动命令 --server-name 0.0.0.0 表示可局域网访问,输入ip
python web_demo_mm.py --server-name 0.0.0.0
求和上传图中某一列。
训练
?阶段一:普通预训练 (pretraining)
14亿
大规模、弱标记、网络爬取的图像-文本对(其中3.18亿**中文**
文本)
阶段二: 多任务任务微调 (得到Qwen-VL)
约1亿
数据,7大任务,图片题词,视觉问答,位置标注、OCR等任务
阶段三: 指令微调(增强对话能力) (训练后得到Qwen-VL-Chat)
将简单的文本图像对,通过手动注释、模型生成和策略串联构建**35W**对话数据
。
训练过程中混合了多模态和纯文本对话数据,以确保模型在对话能力方面的通用性
数据集从50亿数据中清洗得到14亿数据,其中中文约22.7%,3亿左右
数据集清理标注
- 删除纵横比过大的对
- 删除图像太小的对
- 删除剪辑分数过苛刻的对(特定于数据集)
- 删除包含非英语或非汉字的文本对
- 删除包含表情符号字符的文本对
- 删除文本长度过短或太长的对
- 清理文本的 HTML 标记部分
- 用某些不规则模式清理文本
约1亿
数据,7大任务,图片题词,视觉问答,位置标注、OCR等任务
训练时,黑色文本作为前缀序列,没有损失,蓝色文本作为带有损失的地面真实标签。
为了更好地适应多图像对话和多个图像输入,我们在不同的图像之前添加了字符串“Picture id:”,其中 id 对应于图像输入对话的顺序。在对话格式方面,我们使用 ChatML (Openai) 格式构建我们的指令调优数据集,其中每个交互的语句都标有两个特殊标记(<im_start> 和<im_end>)以促进对话终止。
模型名 | 模型简介 |
---|---|
Qwen-VL-Plus | 通义千问大规模视觉语言模型增强版。大幅提升细节识别能力和文字识别能力,支持超百万像素分辨率和任意长宽比规格的图像。在广泛的视觉任务上提供卓越的性能。 |
Qwen-VL-Max | 通义千问超大规模视觉语言模型。相比增强版,再次提升视觉推理能力和指令遵循能力,提供更高的视觉感知和认知水平。在更多复杂任务上提供最佳的性能。 |
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。