赞
踩
大规模语言模型的发展历程虽然只有短短不到五年的时间,但是发展速度相当惊人,国内外有超过百种大模型相继发布。中国人民大学赵鑫教授团队在文献按照时间线给出 2019 年至 2023 年比较有影响力并且模型参数量超过 100 亿的大规模语言模型。大规模语言模型的发展可以粗略的分为如下三个阶段:基础模型、能力探索、突破发展。
大语言模型构建通常包含以下四个主要阶段:预训练、有监督微调、奖励建模和强化学习,简要介绍各阶段使用的算法、数据、难点以及实践经验。
预训练阶段是大规模语言模型训练的关键步骤之一,特别是对于GPT(Generative Pre-training Transformer)系列模型而言。在预训练阶段,模型通过自我监督学习(Self-supervised Learning)的方式,利用海量无标签的互联网文本数据集进行训练。具体来说,GPT模型采用了自回归语言模型的形式,其核心任务是根据给定的文本序列预测下一个可能出现的单词。
模型通过Transformer架构的多层自注意力机制学习到文本序列中词汇之间的深层上下文依赖关系。在训练过程中,模型试图最小化预测下一个单词的交叉熵损失,从而逐步建立起对自然语言规律的深刻理解,其中包括词汇搭配、语法结构、短语和句子的意义等。
通过预训练,模型能够在大规模无标注数据上习得通用的语言表示,这些表示可以被进一步应用于多种不同的自然语言处理任务中,只需要在预训练模型的基础上进行微调,就可以在特定任务上达到相当出色的性能。这极大地降低了对大量有标注数据的依赖,并为多种下游任务提供了强有力的模型基础。
有监督微调是预训练模型适应特定任务的关键步骤。在完成了大规模无标注数据上的预训练后,模型已经学习到了丰富的语言结构和模式。然而,为了针对性地解决特定的自然语言处理任务(如问答系统、文本分类、机器翻译等),我们需要对预训练模型进行微调(Fine-tuning)。
微调过程中,我们会使用特定任务的有标签数据集,重新训练模型的部分或全部权重,使其能够针对特定任务进行优化。这意味着模型会在原有的预训练基础上,针对新的任务目标调整其内部参数,以便更好地理解和处理任务特有的特征和规律。
在微调阶段,模型的输入和输出会与特定任务一致。例如,在文本分类任务中,模型将学习如何根据输入文本预测相应的类别标签;而在问答系统任务中,模型则将学会根据提供的背景文本生成恰当的答案。
通过这种方法,预训练模型能够快速适应新任务,通常比从零开始训练模型需要更少的数据和计算资源,同时也能够取得更好的性能表现。这种预训练-微调范式已经成为现代自然语言处理中广泛采用的技术手段。
奖励建模(Reward Modeling)是一种强化学习中的技术,尽管像GPT这样的大规模预训练语言模型通常基于自监督学习或最大似然估计进行训练,但在某些情况下,奖励建模可以作为一种补充手段,帮助进一步优化模型的行为,特别是当涉及到道德、伦理或者更加符合人类价值判断的输出时。
在奖励建模框架下,首先定义一个“奖励函数”,该函数量化了模型行为的好坏程度,即模型输出越符合预期的目标或人类偏好,则获得的奖励越高。然后,通过训练一个辅助模型(也称为奖励模型)来预测这些奖励信号,辅助模型通常是基于少量人工标注数据或者其他方式表达的人类偏好。
在实际应用中,奖励建模可能被用来指导预训练语言模型的微调过程,使模型在生成文本时不仅追求语法和语义的正确性,还能尽量遵循预设的价值观或社会规范。这一过程可能包括让模型根据所学到的奖励信号调整其策略,生成更加符合期望的结果。通过这种方式,即使原始训练并未采用强化学习,奖励建模也可以间接引入强化学习的理念来改进模型的表现。
强化学习(Reinforcement Learning,RL)确实是一个强有力的机器学习框架,尤其适用于那些智能体需要通过与环境交互来学习最优行为的场景。在自然语言处理(NLP)领域,强化学习应用于对话模型的训练时,模型扮演的角色就是一个智能体,这个智能体会在对话交互的环境中采取行动(例如,生成回应),然后根据接收到的外部反馈(即奖励信号)来调整它的策略。
在对话系统的上下文中,强化学习允许模型通过与用户或其他评价机制交互,根据用户的满意度、对话连贯性、信息准确性等因素获取即时或延迟的奖励。比如,如果模型生成的回答得到了用户的积极反馈或实现了预定的目标(如解答了问题或完成了任务),那么模型会得到正向奖励;反之,若回答不恰当或不符合预期,则可能得到负向奖励或没有奖励。
一些高级应用场景中,强化学习与语言模型相结合的技术已经发展到了更为精细的层次,如使用人类反馈强化学习(Human Feedback Reinforcement Learning, RLHF),这种技术可以让语言模型更有效地吸收和理解人类偏好,并据此优化其生成的文本内容和风格。例如,OpenAI的ChatGPT就是通过RLHF技术进行了后期微调,以便更好地实现与人类的友好交互和遵循社会规范。
算法:
数据:
难点:
实践经验:
算法:
数据:
难点:
实践经验:
算法:
数据:
难点:
实践经验:
算法:
数据:
难点:
实践经验:
总之,构建大语言模型是一个循序渐进的过程,从大规模预训练开始,逐步通过有监督微调、奖励建模和强化学习等手段,让模型适应更具体和复杂的任务需求。在这个过程中,如何优化算法、合理利用数据、克服难点以及总结最佳实践,都是推动模型性能持续提升的关键要素。
根据 OpenAI 联合创始人 Andrej Karpathy 在微软 Build 2023 大会上所公开的信息,OpenAI 所使用的大规模语言模型构建流程主要包含四个阶段:预训练、有监督微调、奖励建模、强化学习。这四个阶段都需要不同规模数据集合、不同类型的算法,产出不同类型的模型,所需要的资源也有非常大的差别。
以下是每个阶段的详细描述:
预训练 (Pre-training):
有监督微调 (Supervised Fine-tuning):
奖励建模 (Reward Modeling):
强化学习 (Reinforcement Learning):
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。