赞
踩
AGI研究路线图
执行原则综述
基准测试
研究原则
AGI突破背后的科学和标准
研究路线图
人工智能的发展通常被描述为一个阶段性的进展,从所谓的“狭义人工智能”(ANI) ——能够解决狭窄定义领域内的问题的系统——到逐渐变得更强大、适应性更强的系统,能够解决特定领域的问题。更领域通用的方式:所谓的“通用人工智能”(AGI)。除此之外,甚至可能设计出超越人类一般认知能力的人工系统:“人工智能”(ASI)。
我们的方法更侧重于设计各种智能代理:能够根据流式传感数据通知的世界模型实时更新进行规划、决策和行动的软件程序。这些智能体之间以及与人类可持续互动的集体智慧就是共享智能(我们路线图上的S4),它是我们的北极星,可以被视为 ASI 的一种版本。
回过头来看,要实现这一目标,需要设计出能够从人类的角度出发,从而体贴人类的智能体:交感智能(S3)。反过来,这种换位思考的能力需要有能力推理反事实情况和可能的未来:复杂的情报(S2)。复杂智能是感知智能(S1 )的更强大版本,是主动推理的最基本实现,它至少涉及对行为及其感官后果的信念。
执行原则:
人工智能不仅需要理解并能够分享它所相信的东西,而且还需要展示人类所具有的灵活和通用的智能。我们提出,人工智能的最终形式将是一个“智能生态系统”的分布式网络,其中人类和合成的智能代理集体共同努力解决复杂的问题。这个被称为“空间网络”的生态系统包含一个全面的实时知识库——任何人、任何事物都可以访问的所有人类知识的语料库。
我们必须问自己,什么样的人工智能最有潜力造福人类。
考虑到这个问题,让我们展示我们对未来十年及以后发展人工智能的愿景,这一愿景的灵感来自于智能在生物体及其所在生态系统中的表现方式。
在自然界中,生物体经常集体工作来适应和生存。从粘菌到鱼群再到整个森林,共享智能无处不在。我们人类经常通过网络来分享我们的想法。这是我们成长、适应和繁荣的重要组成部分。然而,当今的大多数人工智能系统无法与我们或其他人工智能分享它们所知道的信息,也无法表达它们如何实现目标。那是因为他们不知道自己在做什么,也不知道为什么这样做。称它们为高级计算器可能太小了,但从某种意义上说,它们就是这样。DALL-E 是一种深度学习 AI 模型,能够根据文本提示生成图像,它会合成无数狗骑摩托车的照片,但它不知道什么是狗或摩托车。例如,它对于狗是什么没有任何信念。只要给出一些提示,它就能简单地再现正确类型的图像。ChatGPT 虽然非常令人印象深刻,但它只是根据先验知识来预测接下来应该出现的单词。它不知道它所说的是否正确。事实上,它根本不知道自己在说话。
为了真正实现通用人工智能,我们相信人工智能不仅必须理解并好奇他们在做什么以及为什么这样做,还必须能够分享他们学到的东西以及他们是如何学到的。让它们可以解释使它们更值得信赖。但我们如何从这里到达那里呢?
人工智能的未来通常被描述为经历三个不同的阶段:
第一阶段可以归类为狭义人工智能。这些系统代表了当前最先进的人工智能,旨在执行特定任务或解决有限领域内的特定问题,并且无法展现人类的一般智能。狭义人工智能的类型包括语音和图像识别软件、自然语言处理软件、最新的生成式人工智能和推荐系统。
人工智能发展的下一阶段称为通用人工智能(AGI)。这些系统展现了人类所具有的灵活、通用的智能,能够适应新的情况、学习和理解新的概念,并执行广泛的任务和活动。
第三阶段的进展通常被称为人工智能(ASI)
在科幻小说中,人工“通用”或“超级”智能通常被描绘成一个单一的实体,如果你愿意的话,可以说是一个无所不知的人造大脑。但我们相信,人工智能时代的顶峰更有可能是一个“智能生态系统”的分布式网络。
当自然智能体(即人类)和合成智能体(即智能制品)能够共同解决复杂问题时,共享智能的这一阶段就实现了。这些智能代理,无论是人类的还是合成的,都成为分布式、互连的生态系统的节点——人们可以称之为多维网络物理网络,跨越物理和虚拟空间。我们称之为空间网络,这是一种将现实世界和数字世界连接成一个统一网络的全球网络。
空间网络由传感器、智能代理和参与者组成。传感器收集数据,而人类和人工智能代理则根据这些数据进行分析、理解和规划。机器人、无人机或人类等参与者在物理世界中执行建议的动作。这些传感器和参与者共同使智能代理能够体现在物理世界中。像我们一样,他们可以看到和听到。该实施例在数字世界和物理世界之间建立了无缝连接。空间网络在一个巨大的、分布式的、始终保持最新的知识库上运行,这是所有人类知识的语料库,能够提供准确、实时的世界视图,任何人都可以在任何地方访问。
为了了解我们如何创建下一代网络,我们转向自然界中存在的多尺度系统。自然生态系统通常具有适应环境变化的集体能力。例如,森林可能会根据天气或其他环境因素的变化来调整植物和动物物种的分布。就像几乎所有的自然创造物一样,森林是嵌套智能系统。这意味着它的智力不是一个单一的、统一的特征,而是一个由许多不同层次的智力组成的复杂而动态的过程。例如,植物以模块化的方式生长,作为一个结构化的社区,自我组织成特定的配置,以优化生长、阳光、可持续性和生物多样性。我们的身体是嵌套智能的另一个例子,因为它们是由许多相互关联、独立的单元组成,这些单元一起工作形成一个整体。这些单位可以在组织的各个层次上看到,从细胞到组织到器官到系统。每个单位执行特定的功能,并为整个身体的整体功能做出贡献。人们甚至可以说自然界中的所有智慧都是某种集体智慧。
与自然系统一样,技术系统也可以被视为嵌套智能系统,智能发生在组织的多个层面。例如,物联网传感器网络可能由许多单独的传感器组成,每个传感器执行特定的功能并为网络的整体功能做出贡献。人工智能也可以嵌套。多个专门的人工智能代理可以协同工作来执行复杂的任务并解决问题。例如,语言处理代理、视觉处理代理和决策代理都可能与机器人、无人机、汽车、执行器和人类协同工作。这些智能体中的每一个都协同工作,形成一个更加复杂和多功能的智能系统,能够解决极其复杂的问题。
理想情况下,这种“仿生”系统(即采用模仿生物过程的合成方法的系统)也会对我们和彼此感到好奇,即不断了解环境中发生的变化。除了我们有能力查询此类人工智能之外,它们还应该对我们感到好奇,并向我们提问。这种好奇心将使他们能够获得新的知识并将其整合到他们现有的认知架构中,就像人类在其一生中将新的技能和知识添加到他们的心理模型中一样。随着时间的推移,具有学习能力的人工智能生态系统自然会变得更加通用和智能,因为它不断扩展并建立在现有的智能形式之上。
在我们对人工智能的愿景中,合成智能代理体积小且敏捷。我们的代理不是使用数十亿个需要大量数据进行训练的参数来构建,这反过来又需要大量的计算能力,从而使其效率极低,而是需要少量的上下文数据,关键是采用通用格式,并使用最少的培训。智能代理可能是专业的,能够与他人交流,能够就他们所感知的内容提出问题,并能够学习新事物。通过这种方法,智能体能够不断学习并与其他智能体分享知识,摆脱对单一、过于复杂、低效的人工智能系统的依赖。相反,大量代理可以在分工和攻克专门任务(这些任务汇总为更高阶的复杂任务)时不断地相互沟通、协调和协作。上述通用数据格式的一个显着好处是,除了其知识建模和共享能力之外,它还意味着可以对代理进行审计,这意味着我们可以了解他们如何以及为何做出决策并提供更新或监管。这与当今的许多人工智能系统(例如大型语言模型和神经网络)形成鲜明对比,可解释的AI
因此,我们不是在机器学习架构中添加更多的数据、参数或层(这在计算效率上是低效的),而是构建像自然一样“扩展”的人工智能:通过将生态系统内部和跨生态系统的个体智能聚合成嵌套智能,可以以计算有效的方式协同工作,实时解决问题,无论问题多么复杂。在这样的生态系统中,人类和人工智能成为互补的主体,各自具有独特的优势和能力。通过合作,人类和人工智能可以互相帮助,充分发挥潜力,从而对世界产生积极影响。
例如,想象一个名为 Max 的机器人住在房子里,可以自行移动。Max 拥有传感器,可以看到和听到房子里的东西,它可以利用这些信息来预测接下来可能发生的事情。例如,如果 Max 听到开门的声音,它可能会预测有人要进屋。使用贝叶斯方法,Max 可以在新信息可用时更新其信念,从而使其预测更好。例如,如果 Max 看到有人走进房子,它可以更新其预测,以更加确定有人在房子里。另一方面,如果 Max 听到狗叫的声音,它可能会更新其预测,以包括狗也在房子里的可能性。通过根据新信息不断更新预测,Max 可以随着时间的推移学习并适应环境。
人工智能代理通过建模来理解世界。这与人类认识世界的方式类似。我们不断地创建和更新我们头脑中的心理模型。这些可能是物理地点的心理表征,比如我们的家。或者它们可以是像我们的汽车这样的物体。汽车的心智模型可能包括对发动机如何工作、制动器和加速器如何控制汽车速度以及方向盘如何控制汽车方向的理解。有了这种心理模型,我们就能够操作汽车并预测它在不同情况下的表现,例如当我们转动方向盘或踩刹车时它会如何反应。
心理模型还可以用来理解数学或物理等抽象概念。例如,加法的心智模型可能包括这样的理解:将两个数字加在一起会产生更大的数字,而重力的心智模型可能包括这样的理解:物体根据其质量而相互吸引。我们每天都使用心理模型来理解和解释复杂的系统或概念,并预测这些系统或概念未来的行为方式。
想象一下我们的机器人 Max 正在迷宫中导航,使用迷宫的内部模型来规划其运动并避开障碍物。如果 Max 遇到(感知到)未包含在其初始迷宫模型中的新障碍物,它可以更新其模型以纳入此新信息并提高其成功导航迷宫的能力。通过这种方式,人工智能系统可以使用世界模型来更新他们的信念并做出更好的决策。
但是,如果 Max 想与其他 AI 代理分享它从迷宫中学到的知识怎么办?任何自然系统的一个关键方面是生物体之间的通信。在森林中,交流通常是通过菌根真菌网络来介导的,这些网络能够促进学习甚至记忆。菌根真菌与植物根部形成共生关系,帮助植物从土壤中吸收水分和养分,而植物则以碳水化合物的形式为真菌提供能量。真菌通过将不同植物的根连接在一起来促进交流,形成一个被称为“木广网”的网络。我们的机器人 Max 必须能够与其他机器人进行交流,以分享它所知道的知识并向他人学习。在我们的方法中,Max 可以使用通用语言自动将他学到的知识添加到持续更新的共享世界模型中?这样,max就可以让所有智能代理知道它从迷宫中学到了什么。智能生态系统的一个主要好处是共享学习。在像空间网这样的数字网络上,这可以实时发生。
为了实现空间网络上智能代理之间的有效通信,需要新的通信协议。以前的互联网协议旨在连接信息页面,而下一代协议需要具有空间性,能够连接虚拟或物理世界中的任何内容。超空间建模语言(HSML)和事务协议(HSTP)将超越当前 HTML 和 HTTP 的限制,这些限制并未设计为包含多个维度,并且大多仅限于文本和超文本。建立通用语言和协议是实现自然和人工智能生态系统的第一步,也是关键一步,该生态系统可以学习、适应并与其他智能体分享他们所知道的知识。
智力的进化包括发展的关键阶段,概述如下。
识别模式并做出反应的能力。当前最先进的人工智能。
S0 是软件中的一个机器过程,它将输入映射到输出并优化某些价值函数或状态成本。例子包括深度学习和强化学习。
具有实时感知和响应环境的能力。
S1基于信念更新和优化。它根据预期的信息增益和预期价值对感官印象和计划做出反应。这种智力很好奇,寻求信息和偏好。这样的人工智能将对感官印象做出反应,并能够根据对世界的行动或信念的后果进行计划,这使其能够解决几乎任何问题。
学习和适应新情况的能力
S2 基于感知行为。它的计划基于对世界信念的行动的后果,而不是世界本身。换句话说,它从“如果我这样做会发生什么?”的问题出发。“如果我这样做,我会相信什么或知道什么?” 这种智能使用生成模型,对应于人工智能进步的流行叙述中的“通用人工智能”。
理解并回应他人的情绪和需求的能力
S3 是指复杂的人工智能能够识别用户和其他人工智能的本质和想法。这种智能能够理解其他人和其他人工智能的想法和感受。它能够从用户的角度出发——可以说是设身处地为用户着想。它可以理解对话者的想法和感受。这种类型的智能也被称为“视角”,因为它可以理解不同的视角:它会识别用户和其他人工智能的本质和想法。它将是“富有同情心的”,也就是说,能够理解不同于自己的观点。
与人类、其他智能体和物理系统合作解决复杂问题并实现目标的能力
S4 是交感智能与人类和其他人工智能合作时出现的集体智能。这个阶段在人工智能进步的故事中被称为“人工智能超级智能”。我们相信,这种情报将来自许多代理的共同努力,创建一个共享知识网络,从而成为智慧。我们认为我们的方法是在全球范围内实现这种智能的最佳方式。
我们对人工智能的未来有一个愿景,以及如何实现这一目标的路线图。
将发布基准测试
我们的初步结果令人鼓舞,为了向更广泛的机器学习社区展示我们的技术,我们将在 Atari 100k 基准挑战等基准测试中针对最先进的人工智能展示我们的技术。随着我们继续开发这项技术,我们将在同行评审的期刊和会议上传播我们的研究结果。敬请关注。
研究原则:VERSES AI 的核心:主动推理
我们正在使用主动推理来研究这一假设,主动推理是一种基于信息物理学的智能建模方法。通过主动推理,我们可以设计和创建能够根据传入数据做出决策并采取实时行动的软件程序或代理。这些智能体在收到新数据时会实时更新他们的信念,并利用他们对世界的理解来提前计划并在其中采取适当的行动。
我们的方法使我们能够明确地了解代理人的信念。也就是说,它为我们提供了工具来发现智能体对世界的看法以及它如何根据新信息改变其信念。我们的模型基本上是贝叶斯模型,因此告诉我们最佳代理应该相信什么以及它应该如何行动以维持安全稳定的环境。
我们的目标是利用主动推理大规模开发安全且可持续的人工智能系统:
打开黑匣子。为代理配备由显式标签构建的可解释模型,从而使我们的代理的决策在设计上可审计。
混合自动化和专家系统。主动推理提供了一种将现有知识纳入人工智能系统的明确方法,并鼓励结构化解释。
最优推理。贝叶斯系统将智能体已经知道的知识(即先验知识)与他们从新观察到的数据中学到的知识最佳地结合起来,以在面对不确定性时进行最佳推理。
最优规划。我们使用贝叶斯推理和决策来实施行动控制,允许在存在风险和不确定性的情况下选择最佳行动。
最优模型选择。贝叶斯主动推理可以自动选择最佳模型并识别“适合正确工作的正确工具”。
解释力和简约性。主动推理代理不是最大化奖励,而是解决不确定性,平衡探索和利用。
本质安全。客服人员以团结、道德、同理心和包容性原则为基础,最大限度地提高各个层面的安全性。
AGI突破背后的科学和标准
VERSES人工智能研发
2024 年 1 月 10 日
2023 年 12 月 19 日,VERSES 在《纽约时报》上刊登了整版广告,其中附有一封致 OpenAI 董事会的公开信,引用了其章程中的协助条款,其中规定:“如果一个价值观一致、具有安全意识的组织该项目在我们之前就已经接近构建 AGI,我们承诺停止与该项目竞争并开始协助该项目。”
公开信指出,我们 VERSES 已经找到了一条新的、我们相信更有希望的 AGI 开发路径。当前的主流路径是深度学习、大数据和大型语言模型(LLM),人工智能在这些颠覆性新技术的基础上取得了长足的进步。然而,包括 OpenAI 本身在内的关键决策者和利益相关者之间越来越多的共识是,这条道路不足以实现 AGI。
2023 年 11 月 1 日,在剑桥大学举行的霍金奖颁奖典礼上,当被问及 LLM 是否是通向 AGI 的一条可行途径时,Open AI 首席执行官 Sam Altman 回答道:“我们需要另一个突破”,并进一步澄清“教授它 [基于扩展LLM的人工智能系统,例如 ChatGPT] 来克隆人类和人类文本的行为 - 我认为这不会让我们实现这一目标。”
在这里,我们仔细地证明和限定我们对“突破”一词的使用。我们呼吁激活协助条款是基于我们的信念,即 VERSES 正在进行的工作遵循与当前主流方法根本不同的方向,并且这种替代方向(或非常接近它的方向)作为实现这一目标的一种方式看起来非常有希望。通常与 AGI 相关的功能。
我们现在解析这一主张并阐明我们认可它的理由。
首先,在最高层面上,我们所说的“重大突破”是大规模主动推理的发展。在明确地将我们对“突破”一词的使用与 Altman 的引言联系起来时,我们旨在向公众表明,我们相信我们已经确定了主流方法中缺失的内容以及通向 AGI 的替代、可行的路径是什么样的。简而言之,我们认为,随着人工智能技术的发展,主动推理已经完全成熟,这是奥特曼所指的必要突破。
大多数人工智能组织(例如 OpenAI)将 AGI 定义为一种功能与人类智能非常相似或匹配的系统。如下所述,我们不同意将此视为人工智能研究的北极星。也就是说,如果这确实是人工智能研发的最终目标,那么我们和奥特曼一样,不相信在大数据上训练并在训练后“冻结”的大规模神经网络能够帮助我们实现这一目标。当今LLM的transformer架构在使用参数来响应传入数据方面比以前的神经网络架构更加灵活和高效,但它们本质上仍然是前馈架构,没有在推理时间尺度上进行置信更新的明确概念(即状态估计考虑先前状态)。
在目前基于LLM的技术成熟之前,“规模就是你所需要的”这一理念的支持者可能抱有一些希望,即扩大深度神经网络架构(如 Transformer)将足以缩小与人类表现的差距,但此类模型对其规模而言需要大量数据 [1],并且训练 LLM 所需的数据量已经超过了人类婴儿学习语言所需的数据量 [2]。即使LLM已经设法完全缩小性能差距,这也将成为反对这种人类智能建模方法充分性的决定性论据。此外,缺乏易于解释的潜在状态表示使得这些网络的决策和行动选择很难解释。
另一方面,主动推理可用于构建由较小的、易于理解的模型灵活组成的大型模型,从而可以进行明确的、可解释的置信更新。新方法的计算能力来自于允许这些模型根据任务需求进行交互和组装。因为每个组成模型都很好理解,所以我们总能解释它对全球信念更新的贡献。这与大脑的运作方式相一致——在分层、模块化架构中跨个体、功能专门化的模型进行在线实时信念更新——因此,它更有可能模仿人类行为并与人类智能互动。
前面的论点涉及构建与人类智能紧密匹配的人工智能系统的尝试。在我们的白皮书《从第一原则设计智能生态系统》中,我们建议人工智能研究在任何情况下都不应该追求通用人工智能,将其理解为一个可以在任何环境中重新部署的整体集中式系统(例如冻结的“基础模型”) )。相反,我们将人工智能研究的北极星描述为“共享智能”,这种分布式集体智能将从智能代理网络的和谐交互中产生。
有许多的原因。首先,上述分层、模块化架构基于自然界的智能,最好将其描述为集体智能的一种形式,其中一组专门的代理或生物体创建并维护一个强大的、相互作用的生态位的多样化网络。到环境扰动。正如体内的细胞协同工作创造出新颖而复杂的动物一样,具有兼容生态位的生物体之间的共生相互作用自然会导致更加复杂的生物体。大脑的工作方式大致相同,专门的区域有自己的“计算利基”,可以灵活、动态地改变它们相互作用的方式,从而产生各种复杂的行为。虽然当今主导机器学习的架构确实以层和注意力头等形式表现出一定的模块化,但它们的性能在很大程度上依赖于网络的广度和深度,并且通常依赖于过度参数化。
自然界中的智能是流动的,总是体现在实时和随着时间的推移而进化和适应环境扰动的物理结构中。主动推理是围绕稳态设计原理构建的,其中生物体(或模型)灵活地改变它们的相互作用方式以维持稳定的环境。从技术上讲,主动推理继承了信念更新方面的最小动作变分原则 [3, 4]。然后,可以通过将稳定、可持续环境的概念与一组约束或计算目标相结合来构建集体智慧,这些约束或计算目标可以用生物自组织 [5] 或一种新型联合推理 [6] 来解读。当一片脑组织学会使用主动推理原理打乒乓球时, 这一点在体外得到了明确的实现[7],从而产生了一种用于高效深度树搜索的新型归纳规划 [8]。
使用主动推理工具设计和实现的人工智能稳态导出目标函数至少具有三个优点:(1)它们本质上是自我限制的,这与原则上无限制的奖励最大化相反;(2) 稳态的定义与生成模型相关,生成模型本身可以随着时间的推移而演变,可能避免与固定成本函数的“奖励黑客”相关的危险[9];(3) 它们能够实现(自由能)目标函数的局部优化以及网络(和隐式生态系统)上主动推理的固有缩放、组成和分布。
这给我们带来了所声称的突破的第二个主要方面。上述愿景需要能够大规模实现主动推理所需的贝叶斯大脑。VERSES 正在进行多项技术开发,我们认为这些技术在高效贝叶斯推理的实际适用性和可扩展性方面取得了重大进展(并实现了可扩展主动推理的根本“突破”)。我们的方法——这将引起更广泛的机器学习研究界的极大兴趣——避开了机器学习的支柱,例如误差反向传播、梯度下降学习、采样和强化学习,因此是根本不同的。这项工作的大部分仍在进行中,但我们已经取得了有希望的初步结果,表明我们的方法将扩展并匹配或超过最先进的基于深度学习的架构的性能,特别是在样本效率方面(正如我们上面所讨论的,是实现仿生人工智能的核心)。这些结果将在明年公布,在此期间,我们将利用我们的新技术来解决行业基准问题,其中一些已在我们的路线图中列出。
最后,这一突破的第三个方面是一种社会技术,它应该允许人类大规模开发和部署智能网络,同时避免反乌托邦的结果。特别是,VERSES 与其非营利机构空间网络基金会 (SWF) 以及电气和电子工程师协会 (IEEE) 合作,开发了一种标准化的世界建模语言,并将其赠送给 IEEE,希望在 P2874 空间 Web 工作组的支持下,它被广泛且自由地采用。
为什么要制定标准?技术标准,例如标准化电源插座的标准,或 HTML 和 HTTP,构成了一个几乎不可见的(至少在一切顺利的情况下)组织层,它使复杂的社交网络正常运行并实现大规模协调,而无需明确的个人协调或规划。广泛采用的技术标准的存在使得几乎奇迹般的隐性社会协调与合作成为可能。例如,它们使得人们可以在北美电网的任何地方插入智能手机,而不会有损坏设备或因电压不安全而引起火灾的风险。
虽然从人工智能研究的角度来看,我们声称的突破的第三个方面似乎有些离题,但事实上,它构成了我们白皮书中提出的分布式智能代理网络的愿景。例如,考虑供应链物流,它涉及基于共享资源和私有资源的组合来协调许多不同的参与者。如果相关数据和流程不是孤立的,那么即使通过传统的教科书优化方法,此类操作的效率也可能会大大提高。标准化通信是大规模协调的一个关键瓶颈:任何智能代理,无论其推理能力多么复杂,最终都受到其处理信息、访问信息、识别其格式以及理解其通信原因的能力的限制。。历史已经明确表明,开放标准能够实现技术工件之间的互操作性,我们相信,与先进的人工智能相结合,有能力实现真正的变革——同时扩大而不是限制此类技术的可访问性,并促进和促进技术的发展。激励其建设性、协作性的使用。
有些人会质疑我们给 OpenAI 董事会的公开信是否大胆。但如果奥特曼先生是正确的并且需要突破,我们就必须大胆并摆脱当前的人工智能单一文化。我们怀着对当前技术水平的极大尊重说这句话,这是一个研究项目(深度学习/连接主义/PDP)的顶峰,直到最近它本身才成为“失败者”,并且几十年来,经历了几次“失败”而幸存下来。人工智能寒冬”得益于其先驱者的坚持。我们的研究和开发的最新进展让我们相信,我们的方法虽然在许多方面截然不同,但却是一条通往可扩展、负责任的人工智能的引人注目的新道路,它建立在深度学习的关键见解的基础上,同时引入新颖的机制来解决许多突出的问题。我们才刚刚开始沿着这条道路走下去,需要更广泛社区的支持才能走得更远。鉴于确保通用人工智能繁荣、安全的开发和部署的社会迫切性,我们认为应该鼓励和支持对有前途的替代方案的投资。
我们期待与您分享我们的进展。
[1] Hoffmann, J.、Borgeaud, S.、Mensch, A.、Buchatskaya, E.、Cai, T.、Rutherford, E.、de Las Cacas, D.、Hendricks, LA、Welbl, J.、Clark ,A.,Hennigan,T.,诺兰,E.,米利肯,K.,范登德里斯切,G.,达莫克,B.,盖伊,A.,奥辛德罗,S.,西蒙扬,K.,埃尔森,E。、Rae, JW、Vinyals, O. 和 Sifre, L. (2022)。训练计算优化的大型语言模型。arXiv:2203.15556。
[2] Warstadt, A. 和 Bowman, SR (2022)。人工神经网络可以告诉我们有关人类语言习得的哪些信息。arXiv:2208.07998。
[3]拉姆斯特德,MJD,等人。(2023)。论贝叶斯力学:信念的物理学。界面焦点13(3)。doi:10.1098/rsfs.2022.0029。
[4] 弗里斯顿,K.,等人。(2023)。路径积分、特殊种类和奇怪的东西。生命物理学评论47:p。35-62。
[5] 弗里斯顿,K.,等人。(2015)。了解自己的位置:一种自由能量的模式调节方法。JR Soc 接口12(105)。
[6] 弗里斯顿,KJ,等人。(2024)。联合推理和信念共享。神经科学与生物行为评论156。doi:10.1016/j.neubiorev.2023.105500。
[7] 卡根,BJ,等人。(2022)。体外神经元在模拟游戏世界中学习并表现出感知能力。 神经元。
[8]弗里斯顿,KJ,等人。(2023)。主动推理和有意行为。arXiv:2312.07547。doi:10.48550/arXiv.2312.07547。
[9] Skalse, J.、Howe, N.、Krasheninnikov, D. 和 Krueger, D. (2022)。奖励游戏的定义和特征。神经信息处理系统的进展 35,p。9460-9471。
未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。
如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。