赞
踩
最近的学习,越来越领会后训练的重要性。预训练只能学到语言本身的统计概率、基础通用的语义,如果希望模型发挥更好的作用,后训练显得越来越重要。
这里,我想,可能存在这样一个逻辑,在预训练阶段,只是学习到了网络的平均水平,而通过后期的对齐和引导,模型是可以输出高于网上数据的平均水平的结果,进一步的,模型也可以自动的引导这个提升过程,就像《SELF-INSTRUCT: Aligning Language Models with Self-Generated Instructions》文章所看到的那样。
在前面,Meta推出 Llama 3 的介绍中,提到了后训练的重要性,“我们在后训练阶段投入了大量的工作,我想大家都喜欢谈论预训练,以及我们扩大了规模,使用的 GPU 数量达到了数万个,以及在预训练中使用了多少数据,但实际上,真正的关键在于后训练阶段。这就是我们目前花费大部分时间的地方,我们在这里生成了大量的人工注释,执行了大量的有监督微调(SFT),我们正在做的事情,比如拒绝采样、PPO、DPO,尝试在这些模型的可用性、人类方面的特征以及预训练中的大规模数据之间找到平衡,这就是我们如何思考这些问题的”。
恰好,今天看到两条微博,其中都提到了后训练。
来自微博@宝玉xp老师的微博:
OpenAI 创始人 John Schulman 访谈节选:为什么 GPT-4 比一年前更“聪明”了?主要都是后训练(Post-Training)带来的!
另外他认为,在强化学习研究领域,研究人员需要具备丰富的经验和敏锐的直觉。了解整个技术堆栈,并对各个部分充满好奇心是关键。此外,从第一性原理出发思考问题,而不仅仅依靠实验证据,也能够帮助研究人员在数据操控和环境设置方面做出更好的决策。
Dwarkesh Patel:在未来,用于训练的计算力中,预训练与后训练的比例是否会明显偏向后训练呢?
John Schulman:确实,有一些观点支持这种说法。
Dwarkesh Patel:我是说,现在这个比例非常不平衡。
John Schulman:但你可以认为,模型生成的输出质量比网上的大多数内容都要高。因此,让模型自己思考似乎更有道理,而不仅仅是训练来模仿网络上的内容。所以,我认为从第一性原理上来说,这是有说服力的。我会说,我们通过后训练取得了很多进步。因此,我不确定。所以,我希望我们会继续推动这种方法,并且可能会增加投入到后训练中的计算力。
Dwarkesh Patel:当前的 GPT-4 的 ELO 分数比最初发布的版本高出了大约 100 分。这是否全都是后训练带来的改进呢?
John Schulman:对,我会说大部分都是后训练带来的。
Dwarkesh Patel:这很有意思。
John Schulman:因此,有很多不同的改进方向。我们会考虑数据质量,数据数量,进行更多的部署和收集新数据的迭代,改变你收集的注解种类。因此,有很多因素叠加在一起。但是全部加在一起,就会带来一个相当不错的,有效的计算力提升。
Dwarkesh Patel:后训练的优化程度对于竞争优势有多大影响呢?
John Schulman:目前,我会区别公司是通过我们的模型有多大等等。那么,找出你之前提到的所有这些数据的复杂问题的公司,会占据大优势吗?
John Schulman:我认为这确实是一个优势,因为这是一个非常复杂的任务。因此,你必须有很多有技能的人来执行它。因此,存在大量的隐性知识。同时也需要大量的组织知识。我认为后训练的过程,创建一个具备人们所关心的所有功能的模型,是十分复杂的。这需要付出大量的努力,它是大量研发工作的积累。我会说这种情况在某种程度上形成了一种壁垒,要想立即启动这种模型并非易事。
Dwarkesh Patel:看起来那些正在进行最严肃的预训练努力的公司,也在进行严肃的后训练努力。因此,看起来这种模型有可能被复制或有更多的类似努力出现。
John Schulman:另外,还有一种情况使得这个壁垒并非那么明显,那就是你可以提取模型,或者复制别人的模型输出,或者使用别人的模型进行比较。我认为大公司可能并不会这样做,因为这违反了服务条款,也会损害他们的自尊心,但我预计一些规模较小的参与者可能正在这样做以便更好地起步。
Dwarkesh Patel:那些真正擅长进行这种强化学习(RL)研究的人有什么样的特质呢?我听说这种研究非常具有挑战性,但是什么样的直觉能帮助你找到操控数据和设置环境的方法呢?
John Schulman:我觉得有相当多的经验是关键。自从研究生时期以来,我一直在研究 RL 算法,涉及到数据收集、到注释过程,再到与语言模型的交互。所以,我算是涉猎了这些领域。我认为,在这类研究中表现出色的人通常对整个技术堆栈有全面的了解,并且对其中的各个部分充满好奇心。他们不仅依靠实验证据来更新自己的观点,还会从第一性原理出发思考问题。比如,假设深度学习是有效的,那么理想的收集数据的类型应该是什么,等等。
来自@i陆三金老师的微博:
Scale AI 创始人 Alexandr Wang 对于 OpenAI 和 Google 最近发布会的评价,他反复强调 post-training(后训练)非常重要,不过他就是做这部分数据的,并表示下周有重要发布,还请理性看待他的言论:
目前,OpenAI 的 GPT-4o 是最好的大型模型,谷歌的 Gemini 1.5 Flash 是最好的小型模型。
比赛开始了。
在我看来,对于行业来说,分歧比趋同更有利。唉……
将刚发布时的 GPT-4 与 GPT 4o 进行比较,它们是天壤之别,这显示了通过出色的数据进行出色的 post-training 的威力。
这可能是因为预训练中的供应链问题——算力不足 + 数据稀缺。
进一步推进 post-training,这需要丰富的前沿数据。
post-training 数据的丰富程度可能会完全制约前进的步伐。
agents、多模态、多语言、专家思维链、企业工作流等。
所有这些都依赖于现在根本不存在的数据,而我们需要生产资料。
纯合成数据并非我们的救星——合成数据无法将模型的边界推向现有能力之外。它只是一种工具,而非灵丹妙药。
这是一个人工智能与人类专家共生的难题。
Scaling laws 清楚地说明了我们的方向–我们需要更多的数据!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。