赞
踩
本文为学习微调ChatGLM2-6b模型解决文本二分类任务视频基础总结感悟
本人自己根据手册上面的步骤跑了一遍,但是效果不理想只有0.7多,和其他群友交流得知,其他群友也有此现象,需调教prompt 参数才能获得更好的结果。
通过跑chatglm2-6b学到了大模型的具体工作原理,以及通过怎样微调使模型更加精准(得到我们想要的结果)例如本次模型使用 LoRA微调(一种高效的融入学习算法。类似人类把新知识融入现有知识体系的学习过程)除此之外我们还可以使用。学习时无需新知识特别多的样本,学习后原有的庞大知识和能力可以基本不受影响。最大的收获就是知道了微调的几种方法。
1.AdaLoRA微调
我们演示了使用AdaLoRA算法,使用1条样本对ChatGLM2-6b实施微调。几分钟就成功注入了"梦中情炉"有关的知识。
summary:
(1) 只需要1条样本,很少的训练时间,就可以通过微调给LLM注入知识。
(2) LLM是一种类似Key-Value形式的知识数据库,支持增删改查。通过微调可以增删修改知识,通过条件生成可以查询提取知识。
(3) LoRA微调是一种高效的融入学习算法。类似人类把新知识融入现有知识体系的学习过程。学习时无需新知识特别多的样本,学习后原有的庞大知识和能力可以基本不受影响。
2.Prefix-tining
3.Prompt-tuning
4.P-tuning
5.P-tuning v2
大模型是基于深度学习的自然语言处理模型,有很多参数(是大模型的主要特点),可以理解并生成人类的自然语言。现在市面上有很多的大模型,譬如最火的chatgpt4
OpenAI开发ChatGPT的三个主要步骤:大尺寸预训练+指令微调+RLHF
官方视频:【官方教程】ChatGLM-6B 微调:P-Tuning,LoRA,Full parameter_哔哩哔哩_bilibili
以下为比较好的学习笔记链接,以备后续再次学习使用
微调介绍:chatglm2-6b微调手记 - 知乎 (zhihu.com)
chatGLM2-6b微调示例:ChatGLM2微调保姆级教程~ - 知乎 (zhihu.com)
【基于论文摘要的文本分类与关键词抽取挑战赛教程】Datawhale - 一个热爱学习的社区 (linklearner.com)
【体验竞赛全流程】
Docs (feishu.cn)
【优质资料&学习者分享&答疑手册】
优质资料&答疑手册 - 飞书云文档 (feishu.cn)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。