当前位置:   article > 正文

AI大模型开发架构设计(1)——LLM大模型Agent剖析和应用案例实战

ai大模型开发架构设计

LLM大模型Agent剖析和应用案例实战

1 从 LLM 大模型到智能体演进技术

语言模型是什么?
  • 语言模型:给定一些字或者词(称为 token),预测下一个字或者词的模型

image.png

大语音模型是什么?
  • 大语言模型(Large Language Model, LLM)是一类基于深度学习的语言模型,它们在大量的文本数据上进行训练,可以完成各种任务,包括代码编写、总结、翻译等。LLM 的特点是规模庞大,包含数十亿的参数,帮助它们语言数据中的复杂模式。

image.png

大语言模型日新月异

image.png

LLM大模型存在局限性
  • 简单的推理也会犯错?
  • 多聊几句就忘记历史信息了?
  • 写了代码能不能运行验证下?

image.png

LLM Agent来势凶凶

image.png

  • Agent = LLM(大语言模型,就好比人的大脑) + Plan(规划能力)+Memory(记忆能力)+Tools(工具使用能力)
LLM Agent增长迅猛

image.png

LLM Agent是什么?
  • LLM Agent 可以理解为一个以 LLM 为大脑的智能体(类比人),集成了规划、记忆、工具使用等能力。
    • 规划能力
      • 既然 LLM 难以直接处理复杂任务,一个直接的思想就是将任务进行拆解,通过实现几个小目标从而实现一个目标。此外,LLM Agent 可以对过去的行为自我批判和反思,从错误中吸取教训,并对未来的行为进行改进,从而提升最终的效果。
    • 记忆能力
      • 既然 LLM 的上下文有限,扩展其记忆能力肯定不可或缺。
    • 工具使用能力
      • 如果能够让 LLM 既能帮你写代码,还能帮你跑代码,那这样一个智能体的发挥空间就取决于你的想象力了。

LLM Agent 可以理解为一个以 LLM 为大脑的智能体(类比人),集成了规划、记忆、工具使用等能力。

image.png

2 LLM Agent 架构深度剖析

规划能力是什么?
  • 规划能力,本质上希望激发 LLM 的最大潜能,“引导”或者“提示” LLM 更好地回答问题,因为规划能力很大一部分还在 Prompt Engineering 上。

【方式一】任务拆解

  • 就是把任务分成一步一步来执行,一步一步像一条链吗?——CoT 思维链

image.png

CoT任务拆解的缺陷是什么?

  • 链式任务拆解方式可能忽略一些潜在情况,因为一步之后只能选择往下一步,没有多种选择余地。

image.png

任务拆解三种方式

  • 让 LLM 自己来拆解,比如前面的 ToT Prompt,还有常见的拆解 Prompt,“Step for XYZ”等
  • 任务相关的引导,比如写小说,可以让 LLM 写一个小说的大纲 “Write a story outline.”
  • 用户自己分解任务,类似 CoT,自己写出满意的步骤再让 LLM 来模仿

LLM和传统规划方式结合

image.png

【方式二】自我反思

  • 当我做事情时,做对或者做错都会让我们思考怎么做得更好
  • 从 Agent 的角度出发,接收一个观测(Observation),给出一个动作(Action)(强化学习的感觉)

image.png

  • 告诉 LLM 应该按照“思考-行动-观测”的方式来获得最终的回答
    • few-shot Learning + 提供 thought

举个

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/317986
推荐阅读
相关标签