赞
踩
来源:今日头条|人工智能学家
上周,我有幸与Sam Altman和其他20位开发人员坐下来讨论OpenAI的API和他们的产品计划。Sam非常坦诚开放。讨论涉及实际的开发者问题,以及与OpenAI的使命和人工智能对社会的影响相关的宏观问题。以下是关键要点:
目前OpenAI受到GPU资源限制较严重 讨论中反复提到的一个主题是目前OpenAI受到GPU资源的严重限制,这延迟了他们的许多短期计划。最大的客户投诉是API的可靠性和速度。Sam承认了他们的关切,并解释说问题的大部分是由于GPU短缺引起的。
目前还无法将更长的32k上下文窗口推广给更多人使用。OpenAI尚未克服注意力机制的O(n^2)扩展问题,因此,虽然很有可能他们会很快实现100k-1M令牌的上下文窗口(今年内),但更大规模的窗口需要研究上的突破。
精调API目前也受到GPU可用性的限制。他们尚未使用像Adapters或LoRa这样高效的精调方法,因此精调需要很高的计算资源来运行和管理。未来会提供更好的精调支持,他们甚至可能提供一个由社区贡献的模型构成的市场。
专用容量供应受到GPU可用性的限制。OpenAI还提供专用容量,为客户提供模型的私有副本。要使用该服务,客户必须愿意预先承诺10万美元的支出。
1.OpenAI的近期路线图 Sam分享了他所看到的OpenAI API的近期临时路线图。
2023年:
更便宜、更快的GPT-4 — 这是他们的首要任务。总体而言,OpenAI的目标是尽可能降低“智能的成本”,因此他们将努力随着时间的推移继续降低API的成本。更长的上下文窗口 — 在不久的将来,上下文窗口可以达到100万个令牌的规模。精调API — 精调API将扩展到最新的模型,但具体形式将根据开发人员的需求进行调整。有状态的API — 当您今天调用聊天API时,您必须反复传递相同的对话历史并支付相同的令牌费用。将来将推出一种记忆对话历史的API版本。
2024年:
多模态 — 这是GPT-4发布的一部分,但在更多GPU可用之后才能推广给所有人使用。
插件“目前不具备PMF”,可能不会很快出现在API中 很多开发人员对通过API获得ChatGPT插件的访问权限感兴趣,但Sam表示他认为这些插件不会很快发布。除了浏览之外的插件使用暗示着它们目前尚未具备PMF。他认为很多人认为他们希望他们的应用程序在ChatGPT内部,但实际上他们真正希望的是将ChatGPT集成到他们的应用程序中。
OpenAI将避免与其客户竞争,除了ChatGPT之外 相当多的开发人员表示,在OpenAI可能推出与他们竞争的产品时,他们对使用OpenAI API进行开发感到紧张。Sam表示,OpenAI不会在ChatGPT之外推出更多的产品。他说,伟大的平台公司通常都有一款杀手级应用程序,而ChatGPT将使OpenAI能够通过成为自家产品的客户来改进API。ChatGPT的愿景是成为一个超级智能的工作助手,但OpenAI将不会涉足许多其他GPT的应用领域。
需要监管,但开源也很重要 虽然Sam呼吁对未来的模型进行监管,但他认为现有模型并不危险,并认为监管或禁止现有模型将是一个严重错误。他重申了他对开源重要性的信念,并表示OpenAI正在考虑开源GPT-3。他们尚未开源的部分原因是他对有多少个人和公司有能力托管和提供大型LLM表示怀疑。
缩放定律仍然适用 最近有很多文章声称“巨型AI模型的时代已经结束”。这并不是准确的表述。
OpenAI的内部数据显示,模型性能的缩放定律仍然适用,使模型变得更大仍将带来性能提升。缩放的速度无法持续,因为OpenAI在短短几年内使模型变大了数百万倍,而未来这样做将不可持续。这并不意味着OpenAI不会继续努力使模型变得更大,只是意味着它们每年的规模可能增加两倍或三倍,而不是成倍增加。
缩放仍然有效对于AGI发展的时间线具有重要意义。缩放假设是这样一个观点,即我们可能已经拥有构建AGI所需的大部分要素,剩下的工作将是将现有方法扩展到更大的模型和更大的数据集。如果缩放时代已经结束,那么我们可能应该预计AGI离我们更远。事实上,缩放定律仍然适用强烈暗示着时间线可能较短。
未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。
如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。