赞
踩
Qwen-WisdomVast是以Qwen1.5-7B为底座,使用 DORA + LORA+ 的训练方法,在100w高质量中文多轮SFT数据 + 20w英文多轮SFT数据 + 2000单轮自我认知数据训练而来的大模型,数学能力相比Qwen1.5-7B-Chat提升了5.16%,在HumanEval数据集上相比Qwen1.5-7B-Chat提升了12.8,在MBPP数据集上提升了11.6%,在BBH数据集上提升了12.44%,全部评测表现见下表。
Github: https://github.com/seanzhang-zhichen/Qwen-WisdomVast
Model | MMLU | C-Eval | GSM8K | MATH | HumanEval | MBPP | BBH |
---|---|---|---|---|---|---|---|
Qwen1.5-7B-Chat | 60.88 | 70.18 | 54.13 | 7.96 | 31.10 | 15.00 | 31.67 |
Qwen-WisdomVast | 57.09 | 70.82 | 51.93 | 13.12 | 43.90 | 26.60 | 44.11 |
说明:
由于官方并未公布Qwen1.5-7B-Chat的评测表现,所以我们自己使用opencompass测试得到以上结果
Qwen-WisdomVast使用和Qwen1.5-7B-Chat一样的参数进行测试