赞
踩
前言:大语言模型实在是太火了,各种技术日新月异,研究diffusion models的从LLMs中找一些研究灵感已经是基操了。当模型比较小的时候,微调全部参数还是可以的。但是现在的大预训练模型时代,微调所有参数不仅效果堪忧,对资源的消耗也非常恐怖,所以这就是做有效微调的初衷。为了研究清楚如何进行有效的大模型微调,我打算沿着Adapter Tuning——Prefix Tuning——Prompt Tuning——P-Tuning——lora的路线详细讲解一下,希望可以对做diffusion models的同学有所启发。
目录
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。