赞
踩
本文只是记录了自己的一些理解
本文参考了文章如下:
LLM高效参数微调方法:从Prefix Tuning、Prompt Tuning、P-TuningV1/V2到LoRA、QLoRA(含对模型量化的解释)
苏剑林. (Apr. 03, 2021). 《P-tuning:自动构建模版,释放语言模型潜能 》[Blog post]. Retrieved from https://spaces.ac.cn/archives/8295
下图来自原始论文《Parameter-Efficient Transfer Learning for NLP》
这家餐厅的菜非常可口。
[MASK]满意。这家餐厅的菜非常可口。
在今天的比赛中,巴西队的内马尔再一次的受伤了。
接下来报道一篇[MASK]新闻。在今天的比赛中,巴西队的内马尔再一次的受伤了。
下图来自原始论文《Prefix-Tuning:Optimizing Continuous Prompts for Generation》
下图来自原始论文《The Power of Scale for Parameter-Efficient Prompt Tuning》
下图来自原始论文《GPT Understands, Too》
下图来自原始论文《P-Tuning v2: Prompt Tuning Can Be Comparable to Fine-tuning Universally Across Scales and Tasks》
下图来自原始论文《LoRA: Low-Rank Adaptation of Large Language Models》
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。