当前位置:   article > 正文

大模型面经之Agent介绍,一文搞懂agent老大难问题

大模型面经之Agent介绍,一文搞懂agent老大难问题

LLM(大型语言模型) Agent 是一种能产出不单是简单文本的 AI 系统,使用 LLM 的能力,作为其计算引擎,让自己能够对话、任务执行、推理,实现一定程度的自主行动

可以说,在这个大模型 AI 时代下,大模型应用 or AI Power + 的应用就是大模型 Agent,等同于移动互联时代的 APP。

本篇将开启一个新系列,尽量细节的讲讲大模型中关于Agent的相关知识内容,因为Agent目前尚未完全流行起来,但是已经有人讨论Agent是目前阶段实现AGI的最优方式。

下面是一个快捷目录:

  1. 什么是大模型(LLM)Agent?
  2. LLM Agent应用例子。
  3. LLM Agent流程之一:拆解子目标和任务分解。

什么是大模型(LLM)Agent?

Agent(智能体)概念最早由人工智能领域的研究者提出,旨在模拟人类的智能行为。最初的Agent系统主要集中在解决特定问题或领域,如专家系统、规则引擎等。

20世纪80年代末和90年代初,随着计算机和网络技术的发展,Agent开始融入到各种应用中,如搜索引擎、个人助理等。

强化学习等技术的兴起(2014年起,深度强化学习出现)使得Agent能够通过与环境的交互来学习和优化其行为。

直到现在,基于LLM和深度强化学习结合的Agent已经成为人工智能领域的核心研究方向之一,涉及到智能系统、机器人、游戏、自动化等多个领域。

简而言之,现在的Agent就是LLM + Planning + Memory + Tools,让大模型实现任务自动化,并且能够不断探索、规划和发展新技能。

【一一AGI大模型学习 所有资源获取处一一】

①人工智能/大模型学习路线

②AI产品经理入门指南

③大模型方向必读书籍PDF版

④超详细海量大模型实战项目

⑤LLM大模型系统学习教程

⑥640套-AI大模型报告合集

⑦从0-1入门大模型教程视频

⑧AGI大模型技术公开课名额

LLM Agent应用例子

1.西部世界小镇Agent

2023年3月,斯坦福制作了西部世界小镇Agent,构建出了一个虚拟小镇,让25个AI智能体在其中生存、从事复杂行为。如下图所示:

为了生成智能体,研究者提出了一种全新架构,它扩展了大语言模型,能够使用自然语言存储Agent的经历。随着时间的推移,这些记忆会被合成为更高级别的反射,智能体可以动态检索它们,来规划自己的行为。最终,用户可以使用自然语言和全镇的25个Agent都实现交互。

如上,生成式智能体的架构实现了一个记忆「检索」(Retrieve)功能,这一功能将智能体的当前情况/感知(Perceive)作为输入,并返回记忆流(Memory Stream)的一个子集(Retrieved Memories)传递给语言模型,而检索功能有多种可能的实现方式,具体取决于智能体在决定如何行动时考虑的重要因素。

2.BabyAGI

BabyAGI是一个智能个人任务管理和解决工具,它背后的脚本虽然看似简单,但实质上是一个与任务列表交互的语言模型。利用OpenAI GPT-4和Pinecone向量搜索引擎的强大功能,它能自动生成任务、确定任务优先级并执行任务,从而实现任务的自动化管理。

  • BabyAGI从初始任务出发,利用GPT4生成解决方案和新任务,并将这些解决方案存储在Pinecone中以备后续检索。

  • BabyAGI根据先前任务的成果和预设目标制定新任务,并运用Pinecone存储并检索任务结果的上下文。

LLM Agent流程之一:拆解子目标和任务分解

1.规划

生成式智能体通过自上而下递归生成规划,以便创建合理的行动计划。这些规划最初是对当日任务的粗略描述。在执行规划时,智能体持续感知周围环境,并将观察结果存储到记忆流中。利用这些观察结果作为提示,语言模型决定智能体下一步的行动:是继续执行当前规划,还是采取其他反应。规划是Agent重要组成部分,而拆解子目标和任务分解属于规划中的一部分。

2.拆解子目标和任务分解

拆解子目标和任务分解意味着智能体能够将复杂的大型任务拆分成小而易管理的子目标,以实现高效处理。

3.拆解子目标方法

  • Chain of thought要求模型按步骤思考,花更多时间计算,将复杂任务分解成小、简单的步骤。CoT将大任务转化为多个易管理的任务,并解释了模型的思维过程。

  • Tree of Thoughts是对CoT的进一步扩展,通过在每一步骤中探索多种推理可能性来创建一个树形结构。它将问题分解为多个思考步骤,并在每个步骤中生成多个思考。搜索过程可以是BFS或DFS,每个状态由分类器或多数投票原则来决定。

  • Graph of Thoughts支持多种结构的Prompt方案,包括多链、树形和任意图形结构。它实现了各种基于图形的思考转换,如聚合、回溯和循环,这是CoT和ToT无法表达的。通过将复杂问题建模为操作图,以LLM作为引擎自动执行,GoT提供了解决复杂问题的能力,某种程度上,GoT包含了单线条的CoT和多分枝的ToT。

4.任务分解方法

  1. 给LLM一个简单的提示词“Steps for XYZ.”,“What are the subgoals for achieving XYZ?”

  2. 使用针对具体任务的指令,例如对一个写小说的任务先给出“Write a story outline.”指令;

  3. 使用者直接输入;

雷军曾说过:站在风口,猪都能飞起来”可以说现在大模型就是当下风口,是一个可以改变自身的机会,就看我们能不能抓住了。

如何系统的去学习大模型LLM ?

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的 AI大模型资料 包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/神奇cpp/article/detail/906783
推荐阅读
相关标签