当前位置:   article > 正文

约翰·舒尔曼访谈解读:2027年AGI将成现实?_ai架构师 访谈

ai架构师 访谈

随着人工智能技术的不断进步,AGI(通用人工智能)的实现似乎不再是遥不可及的梦想。近日,OpenAI联合创始人兼首席架构师约翰·舒尔曼(John Schulman)在访谈中分享了他对AI模型未来发展的看法,并预言在三到五年内,真正意义上的AGI将会问世。这一预测无疑引起了广泛关注。那么,舒尔曼在访谈中具体讨论了哪些内容?本文将对其观点进行详细解析。

AGI的未来定位:人类助手还是主人?

在访谈中,舒尔曼明确表示,他认为未来的AI始终是人类的助手,而非主宰者。当前的AI训练主要是对从互联网中抓取了大量内容的模型进行优化,以满足人类的需求。这些训练后的模型不仅能够生成各种内容,还可以根据要求排列内容,实现特定功能。舒尔曼期望未来的AI能够更加主动,不仅仅是一个执行一次性查询的工具,而是能像一个乐于助人的同事,参与到用户的整个项目中,甚至主动提出建议和帮助。

AI模型的技术进化方向

舒尔曼预测,在未来五年内,AI模型将向着“更好的助手”方向进化。例如,AI将能够独立完成整个编程项目,而不仅仅是提供函数建议。同时,AI在执行多线程与长时间任务上的能力也将显著提高,能够长时间编写多个代码文件。此外,通过预训练和后训练的结合,AI的功能将不断改进,开拓新的用例。

他认为,长期进行强化学习训练(RLHF)是实现这一目标的关键。通过投入更多的多模态数据与训练成本,AI将能够在更长时间里保持连贯的能力,并最终处理更长的任务。舒尔曼将这种能力的质变称为“相变”,即一旦模型的规模与学习训练达到某个水平,就能够处理更长的任务,并制定学习计划朝着目标前进。

技术瓶颈与挑战

舒尔曼坦率地承认,当前AI模型面临的主要问题包括:

  1. 难以预测的杂项缺陷:不同模型的训练承受能力不同,可能会因为过强的学习训练而陷入瓶颈。
  2. 模型局限性:当前模型可能存在意料之外的问题,如幻觉等。
  3. 训练数据不足:对于大型语言模型来说,互联网中的可供学习资料可能会不够用。
  4. 聊天功能优化:AI的语言风格过于僵硬与公式化,需要优化以提高人性化程度。

舒尔曼认为,通过强学习训练,这些问题在两到三年内都可以得到解决。

AI监管与社会影响

关于AI对社会的影响,舒尔曼表示,整个社会需要拿出一套可以安全地处理AI的解决方案,包括政府如何应对潜在的失业潮、AI在道德伦理上的风险、以及在企业应用中增加的信息安全隐患等。他建议,通过部署性能较弱的模型,并逐步对其性能进行升级,来确保AI系统的安全性。同时,他也寄希望于监管技术的进步,以便在系统出现问题时能够立即发现。

舒尔曼还提到,AI公司在许多方面可能会表现得更加高效,但也存在更高的尾部风险。这是因为AI在处理非常少见的情况时,仍然缺乏足够的样本,可能导致大规模故障。因此,他建议不要大规模投入AI到公司管理,但也不完全否定AI公司的可能性。

中小企业与个人开发者的建议

对于中小企业和个人开发者,舒尔曼提出了使用“蒸馏”模型的方法,即将一个复杂而且规模较大的教师模型中的知识提取出来,传递给一个相对较小且结构简单的学生模型,从而减少模型的复杂度,易于部署和运行。这种方法既保留了模型性能,又减少了复杂度,是一种实用性很强的解决方案。

结论与未来展望

综上所述,舒尔曼对AGI的未来充满信心,并预言在2027年将实现AGI。但他也指出,社会需要做好迎接更高性能AI的准备,并采取有效的监管措施,以确保AI系统的安全性和公平性。对于开发者来说,充分利用现有的技术,并不断探索新的方法,是在AI领域取得成功的关键。

未来的三到五年中,我们将看到人工智能在科学研究和复杂任务上的自主性飞跃,AGI的实现将为人类社会带来深远的影响。作为开发者和研究者,我们应积极拥抱这一技术变革,并为其可能带来的挑战做好准备。在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/876571
推荐阅读
相关标签
  

闽ICP备14008679号