赞
踩
我们探索和实现了一种基于QLoRA的轻量级的增量预训练和指令微调方案,并使用该方法对Llama2-13B进行中文知识迁移,在公开榜单和人工评测中验证了该方法的有效性。该方法可推广至对Baichuan、Qwen、InternLM、Falcon等模型的垂直域增量预训练与指令微调。
在CMMLU榜单上,我们的模型优于Linly、Yayi、FlagAlpha等,与Ziya、Chinese-Alpaca-Plus及其接近。在
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。