赞
踩
进入官网使用模型代码:https://github.com/QwenLM/Qwen-VL/blob/master/README_CN.md
git clone https://github.com/QwenLM/Qwen-VL.git
- pip3 install -r requirements.txt
- pip3 install -r requirements_openai_api.txt
- pip3 install -r requirements_web_demo.txt
- pip3 install deepspeed
- pip3 install peft
- pip3 install optimum
- pip3 install auto-gptq
在这里可以选择多种下载方式,然后根据自己的显存选择合适的,我是选择最小的Int4的量化模型,但是我参照使用git命令行下载会下载不了不知为何,最后还是自己手动下载到本地
git clone https://www.modelscope.cn/qwen/Qwen-VL-Chat-Int4.git
建议下载完使用ls -ll看看大小是否正确。
官方上给的对话是一次对话给一个框的信息,但是如果一张图有多个框就需要多次对话。经过测试发现对话轮数越多训练时间也越长,并且测试后发现貌似一个id好像仅限6轮对话(不确定),所以需要根据自己的数据进行修改。测试后发现数据格式可以询问一张图片然后回复有多个框的信息,即类似于:
最后即一个id一张图片然后进行一轮对话。要多轮也可以,到时候可以进行修改。
下面是数据集转化的代码,从xml转换为Qwen的格式:
- import json
- import os
- import xml.etree.ElementTree as ET
-
- # 初始化JSON数据结构
-
- all_data=[]
-
-
- # 指定XML文件所在的目录
- xml_directory = '/qwentest/gongfutrain'
- i=0
- # 遍历目录下的所有XML文件
- for filename in os.listdir(xml_directory):
-
- if filename.endswith('.xml'):
- # 构建完整的文件路径
- file_path = os.path.join(xml_directory, filename)
- i=i+1
- # 解析XML文件
- tree = ET.parse(file_path)
- root = tree.getroot()
- file_name = root.find('filename').text
- json_data = {
- "id": f"identity_{i-1}",
- "conversations": []
- }
-
- conversation1 = {
- "from": "user",
- "value": f"Picture {i}: <img>/qwentest/gongfutrain/{file_name}</img>\n描述下图片的主要对象以及他们的位置信息"
- }
- json_data['conversations'].append(conversation1)
- conversation = {
- "from": "assistant",
- "value": ""
- }
- for obj_elem in root.findall('object'):
- # 提取必要的数据
- object_name = obj_elem.find('name').text
- bbox = obj_elem.find('bndbox')
- if bbox is not None: # 确保bndbox元素存在
- xmin = int(bbox.find('xmin').text)
- ymin = int(bbox.find('ymin').text)
- xmax = int(bbox.find('xmax').text)
- ymax = int(bbox.find('ymax').text)
- else:
- # 处理bndbox不存在的情况
- print(f"Warning: No bounding box found in {filename}")
- continue
- a=f'<ref>{object_name}</ref><box>({xmin},{ymin}),({xmax},{ymax})</box>'
- # 创建单个conversation对象并添加到JSON数组中
- if conversation["value"] == "":
- conversation["value"] = a
- else:
- conversation["value"] += " " + a
-
- json_data['conversations'].append(conversation)
-
- all_data.append(json_data)
-
-
- # 将JSON对象转换为字符串并保存到文件中
- with open('gongfu.json', 'w', encoding='utf-8') as f:
- json.dump(all_data, f, ensure_ascii=False, indent=2)
-
- print("转换完成,所有XML文件的数据已整合到json文件中。")
因为资源有限,使用QLora形式。修改finetune/finetune_qlora_single_gpu.sh中的一些设置,其中主要修改标红部分,其他参数自己设当调整。
运行代码开始微调。
sh finetune/finetune_qlora_single_gpu.sh
Q-lora不支持合并,可以按照以下方法使用,默认保存路径是output_qwen。如果用的lora可以看官方文档如何合并。
- from peft import AutoPeftModelForCausalLM
-
- model = AutoPeftModelForCausalLM.from_pretrained(
- path_to_adapter, # path to the output directory
- device_map="auto",
- trust_remote_code=True
- ).eval()
训练完成后可以使用官方的测试demo进行测试,主要修改一下模型的加载路径即可
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。