赞
踩
LLM的下游应用中,增量预训练和指令跟随是经常会用到两种的微调模式
增量预训练微调
使用场景:让基座模型学习到一些新知识,如某个垂类领域的常识
训练数据:文章、书籍、代码等
指令跟随微调
使用场景:让模型学会对话模板,根据人类指令进行对话
训练数据:高质量的对话、问答数据
利用 QLoRA 算法在 oasst1 数据集上微调 InternLM-7B:
将得到的 PTH 模型转换为 HuggingFace 模型,即:生成 Adapter 文件夹
将 HuggingFace adapter 合并到大语言模型,与合并后的模型对话:
构建数据集,使用 XTuner 微调 InternLM-Chat-7B 模型, 让模型学习到它是你的智能小助手:
正在尝试将模型上传到Hugging Face,由于clash代理存在一些问题暂未成功,后期完成后会上传
课程参考:(4)XTuner 大模型单卡低成本微调实战_哔哩哔哩_bilibili
课程文档:tutorial/xtuner/README.md at main · InternLM/tutorial (github.com)
作业:tutorial/xtuner/self.md at main · InternLM/tutorial (github.com)
StreamlitAPIException: Failed to load the provided avatar value as an image
解决问题参考网站:【书生·浦语】大模型实战营——第四课作业-CSDN博客
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。