当前位置:   article > 正文

[论文笔记]Prompt Tuning

[论文笔记]Prompt Tuning

引言

今天带来第三篇大模型微调论文笔记The Power of Scale for Parameter-Efficient Prompt Tuning

作者提出了prompt tuning(提示微调),一种简单高效地微调方法。可以看成是prefix tuning的简化版。

总体介绍

最近的研究表明,提示设计(prompt design)在通过文本提示调节冻结的GPT-3模型行为方面表现出惊人的有效性。提示通常由一些任务描述和/或几个典型示例组成。然而,基于提示的方法有几个关键的缺点。任务描述是容易出错的,且需要人类介入,提示的有效性受到能够喂给模型输入长度的限制。

prefix-tuning在生成任务上显示了很好的效果,固定模型的参数然后通过反向传播仅调整添加到编码器每层激活值和输入层之前的prefix。

在本篇工作中,作者提出了prompt tuning作为适配语言模型的进一步简化。具体是,固定整个预训练模型的参数仅为每个任务添加额外 k k

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/214735
推荐阅读
相关标签
  

闽ICP备14008679号