当前位置:   article > 正文

In-context Learning

in-context learning
  1. formulate the

example + query -> LLM -> answer

no gradient descent and fine-tuning, no parameters update

advantages: 提供了与LLM进行交流的可解释的接口,通过template和demonstration将人类知识和LLM更好的结合;更像人类的预测思维,会根据类比;相比监督学习,更加的training-free。

  1. GPT-3具有较强的ICL能力,这个能力可以通过pretraining进行提升。

  1. 对prompting template、example、example的顺序敏感。

  1. (1) training phase培养大模型的ICL能力 (2) inference stage,根据具体的demonstration预测。

  1. 严格说ICL是prompt learning的子类,其中的demonstration和是prompt的一种,只不过demonstration是很多的xy对构成的。

  1. ICL和few shot learning不一样,因为ICL不需要参数更新。

  1. warmup是介于pretraining和 inference之间的,可选择的,一般是调整llm或者增加一些参数,不同于fine-tune,不会对llm针对具体任务进行训练。

https://arxiv.org/pdf/2301.00234.pdf

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/908246
推荐阅读
相关标签
  

闽ICP备14008679号