当前位置:   article > 正文

让AI更“智能”的Agent,究竟是什么?

让AI更“智能”的Agent,究竟是什么?

引言

我相信对许多对AI感兴趣的读者来说,“Agent”是个听起来既熟悉又陌生的词汇,而由于ChatGPT引发的浪潮又将Agent的概念推上顶峰,正好借助这个机会我来好好解释一下这个词汇。

Agent的基本含义

在AI领域,Agent基本可以被理解为一个独立的实体,它可以感知环境并作出决策,以达成某种预设的目标,这个决策过程通常建立在某种逻辑或者学习算法之上。在五月份的时候,曾被誉为“硅谷最有权势的华人”的陆奇提出了三位一体理论,描述了一个人获取信息后如何执行的重要节点,而Agent其实可以类比于人类的决策过程——信息-感知-行动。

Agent的工作原理

  1. 感知:Agent能够通过一种或多种方式来获取其所处环境的信息。这些信息获取方式可能包括各种各样的传感器,比如相机、麦克风等输入。
  2. 决策:在获取了环境信息后,Agent会进行决策的过程。这个过程可能会涉及一些复杂的算法,包括但不限于机器学习、强化学习等,即进行思考。
  3. 行动:在做出决策后,Agent将会作出相应的行动,来达到其预设的目标。这个行动可能是实际的物理行动,也可能是虚拟的动作,比如在一个模拟环境中移动。
  4. 学习:许多Agent都具有学习的能力,他们可以根据过去的经验来改进未来的决策。

同样地,我们借助三位一体理论来解释,先来一张图。

在这里插入图片描述

信息到模型

当Agent获取信息后,通过自己的思考形成自己的模型,而通过自己的模型筛选吸收得来的才能叫做知识。

  • 信息是无处不在的,大家都能获取,没有很大的意义;
  • 而知识是独特的,信息是需要自身消化后才能称为知识的,知识是你自己独有的,对自身有重大意义。

模型到行动

Agent通过不断思考就形成了自己的模型,这个模型在现实中其实和“认知”这个词很接近。信息通过模型的筛选后,就将无用信息过滤了,将有用信息留下来并驱动Agent做出决策并做出行动。

行动反哺模型

行动后呢,行动后会对外部世界产生一个影响,这个影响是可以获得的,Agent可以将外界的改变作为自身的反馈来改变自己的模型,实现自身进化。

有没有感觉,整个Agent的工作流程就和人类没有多少区别了,所以通过这种相似的方法构建出的Agent,其决策过程和人类非常相似,那么对人类而言自然就看起来十分“智能”了,这就是一个智能助手了。

Agent的应用案例

  • 游戏AI:在许多视频游戏中,Agent的概念被广泛使用。游戏中的每一个敌人或者非玩家角色(NPC)都可以看作是一个Agent。它们通过游戏提供的信息进行决策,然后作出行动。
  • 自动驾驶:在自动驾驶技术中,整个汽车就可以被看作是一个Agent。它通过各种感应器获取环境信息,然后经过一系列复杂的算法作出决策,并通过驾驶汽车的方式来实现预设的目标。

Agent的概念本质上是对主动性、自主性的一个抽象描述,并在很多实际的应用场景中得到了验证。希望通过这篇文章,你对Agent有了更清晰的理解。如果你对AI有更多的问题或者想法,都欢迎继续提问和交流。

最近一段时间还有很多关于大模型创造或使用工具的Agent,极大增强了大模型的能力,使其能力更强或更专业,如果有兴趣的话可以关注我啊,后续我会进一步分享这部分的内容。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/547839
推荐阅读
相关标签
  

闽ICP备14008679号