当前位置:   article > 正文

李宏毅LLM——生成式学习的两种策略_llm生成式 模板 学习

llm生成式 模板 学习

生成式学习的两种策略:各个击破和一次到位

对应视频的 P7-P11

生成有结构的复杂物件也是由小的结构组成
文句:token 中文:字;英文: word piece。原因:英文的词汇无穷多
影像:像素点
语音:采样

策略一:各个击破
在这里插入图片描述

策略二:一次到位
在这里插入图片描述
问题:怎么知道什么时候结束?
方法一:
在这里插入图片描述
速度:一次到位更快,所以用于影像生成。
生成质量:各个击破更好,所以用于文字生成
在这里插入图片描述
语音领域:两者结合
先各个击破,决定大方向。再一次到位

在这里插入图片描述
改进2:一次到位改成N次到位
在这里插入图片描述
new bing 实测:
new bing可以联网,何时进行搜寻由机器自己决定,具有随机性。但即使引用网页还是会幻想犯错。
在这里插入图片描述
其实使用搜索引擎时,也是文字接龙。
在搜索出来的结果后面做文字接龙
在这里插入图片描述
在这里插入图片描述
训练:记录人类老师的行为
在这里插入图片描述
Web GPT依然是预训练+微调的模式

在这里插入图片描述
Toolformer:不止会搜索,还会用其他工具
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
语言模型:GPT vs BERT
GPT是文字接龙,而BERT是文字填空
在这里插入图片描述
大模型读过很多资料,但他不知道应该做什么,需要有人来引导。

人类对大语言模型的两种期待
期待一:成为专才,解某一个特定任务 ,有机会在单一任务上赢过通才
期待二:成为通才,什么都会。需要人类下指令prompt

成为专才:

对预训练模型做改造
在这里插入图片描述

  • 加外挂
    BERT的天生劣势:文字填空无法生成完整的句子
    因此需要加上额外的模组
    只调整Adapter
    在这里插入图片描述
    在这里插入图片描述

  • 微调参数 Finetune
    在这里插入图片描述

成为通才

OpenAI对AI的期待比较高
在这里插入图片描述

神秘的 In-context Learning 能力

透过范例来学习
在这里插入图片描述
给错误范例,正确率并不会下降很多。但是给无关的句子会影响正确率。
原因:给栗子只是为了唤醒GPT需要做的任务
在这里插入图片描述
例子给多了作用也不大
在这里插入图片描述
越大的模型受到错误例子的影响越大。也就是说特别大的模型真的会从例子中学习
在这里插入图片描述
只是读一些例子,就可以做分类器
在这里插入图片描述

Instruction Learning

直接阅读题目,给出答案
需要Instruction-tuning来学习
在这里插入图片描述

期待在测试的时候可以完成别的任务
在这里插入图片描述

不同的描述方式做成数据集
在这里插入图片描述
测试时用没学过的指令
在这里插入图片描述

Chain of Thought Prompting

写出推论过程,能力起飞
在这里插入图片描述
在这里插入图片描述

变形:不给例子,只给一个Let‘s think step by step.
生成多个答案并投票出结果
在这里插入图片描述
测试:鸡鸭兔同笼问题
在这里插入图片描述
数学问题太难,拆解问题
在这里插入图片描述
用机器自动找prompt

  • 用向量而不是文字
    在这里插入图片描述
  • 强化学习
    在这里插入图片描述
  • LLM直接想出来prompt
    在这里插入图片描述
    机器自己想的Prompt效果优于人类提供的
    在这里插入图片描述
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/526766
推荐阅读
相关标签
  

闽ICP备14008679号