当前位置:   article > 正文

《深入浅出LLM基础篇》(一):大模型概念与发展_大模型发展时间线

大模型发展时间线

《深入浅出LLM 》(一):大模型概念综述

在这里插入图片描述

一、大模型概念

大规模语言模型(LargeLanguageModels,LLM),也称大规模语言模型或大型语言模型,是一种由包含数百亿以上参数的深度神经网络构建的语言模型,使用自监督学习方法通过大量无标注文本进行训练。自2018年以来,Google、OpenAI、Meta、百度、华为等公司和研究机构都相继发布了包括BERT[1],GPT[6]等在内多种模型,并在几乎所有自然语言处理任务中都表现出色。2019年大模型呈现爆发式的增长,特别是2022年11月ChatGPT(ChatGenerativePre-trainedTransformer)发布后,更是引起了全世界的广泛关注。用户可以使用自然语言与系统交互,从而实现包括问答、分类、摘要、翻译、聊天等从理解到生成的各种任务。大型语言模型展现出了强大的对世界知识掌握和对语言的理解。

在这里插入图片描述

在这里插入图片描述

一般来说大模型(Pretrained Foundation Model,Large Language Model)满足如下条件:

  1. 百亿级别参数量,GPT3 175B,Ernie-3.0 260B,llama 65B,PaLM 540B

  2. 具备一定的零示例和少示例预测能力,即预训练之后不需要或者需要少量样本就能解新任务

  3. 具备突现能力(emergent ability)

    (1)量变引发质变:模型效果随参数量/训练计算量/训练数据数量&质量增加出现近乎跳变般的提升 (2)不可预测,不能通过小模型的效果外推

自然语言处理发展

下面回顾人工智能发展的三个阶段

  • 1.人工智能的⼀个 要目标是让机器能听会说,能理解会思考
  • 2.目前人工智能技术正处在从感知智能到认知智能跨越的时间节点
  • 3.自然语⾔处理(NLP)是认知智能中的要内容,是通往强人工智能的必经之路

自然语言处理与图像、语音不同,语言是高度抽象的产物,其基本组成单位并不是明确的物理 。

  • 自然语言表示的发展⼀定程度上反映了自然语言处理的发展
  • 自然语言表示的变迁很大程度影响着自然语言处理的范式
  • 从离散到连续,从上下文无关到上下文相关,从浅层到深层

在这里插入图片描述

二、大模型发展时间线:

在这里插入图片描述

三、大模型分类

2018年,OpenAI和Google分别推出GPT与BERT,打开了自然语言处处理新篇章,开启“预训练+精调”新范式 根据⾯向的任务类型,相关预训练模型也⼤致分为两⼤类:自然语言处理解(NLU)、自然语言处⽣成(NLG)

在这里插入图片描述

在这里插入图片描述

开源大模型汇总

在这里插入图片描述

闭源大模型汇总

在这里插入图片描述

四、大语言模型范式发展

新范式:预训练+上文学习(In Context Learning) 在这里插入图片描述

大模型语言构建流程

在这里插入图片描述 1.预训练(Pretraining)阶段需要利用海量的训练数据,包括互联网网页、维基百科、书籍、GitHub、论文、问答网站等,构建包含数千亿甚至数万亿单词的具有多样性的内容。

2.有监督微调(SupervisedFinetuning),也称为指令微调(InstructionTuning),利用少量高质量数据集合,包含用户输入的提示词(Prompt)和对应的理想输出结果。用户输入包括问题、闲聊对话、任务指令等多种形式和任务。

3.奖励建模(RewardModeling)阶段目标是构建一个文本质量对比模型,对于同一个提示词,SFT 模型给出的多个不同输出结果的质量进行排序。奖励模型(RM模型)可以通过二分类模型,对输入的两个结果之间的优劣进行判断。RM模型与基础语言模型和SFT模型不同,RM模型本身并不能单独提供给用户使用。奖励模型的训练通常和SFT模型一样,使用数十块GPU,通过几天时间完成训练。

4.强化学习(ReinforcementLearning)阶段根据数十万用户给出的提示词,利用在前一阶段训练的RM模型,给出SFT模型对用户提示词补全结果的质量评估,并与语言模型建模目标综合得到更好的效果。该阶段所使用的提示词数量与有监督微调阶段类似,数量在十万量级,并且不需要人工提前给出该提示词所对应的理想回复。

五、大模型预训练挑战

模型大小几乎呈指数增长,大模型训练面临新挑战:

  1. 成本高

(1)GPT-175B一次训练光计算资源消耗1200万美元

css
复制代码
  a. 采用A100的GPU,算力峰值在312TFLOPS。

  b. OpenAI定义的GPT-3 175B模型,算力总需求是3.64E+03 PFLOPS For One Day,不考虑内存限制,即单张A100卡训练 3640*1024 / 312 = 11946 days。

  c. 假定我们使用1000张A100,并且能够将算力打满(现实情况是几乎不可能,整体的使用率达到90%已经是优化的很极限的程序了),大约11天可以训练完成。
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

(2)业界方案:predictive scaling(GPT4核心工作)

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/688407
推荐阅读
相关标签