当前位置:   article > 正文

AutoGen实战应用(二):多代理协作(Multi-Agent Collaboration)

autogen实战应用

AutoGen是微软推出的一个全新工具,它用来帮助开发者创建基于大语言模型(LLM)的复杂应用程序. AutoGen能让LLM在复杂工作流程启用多个角色代理来共同协作完成人类提出的任务。在我之前的一篇博客: AutoGen实战应用(一):代码生成、执行和调试 中我们通过一个简单案例为大家了介绍了如何在AutoGen中创建代理(agent),如何通过agent之间的相互沟通和协作来完成一个人类提出的任务。在这个博客的案例中我们创建了两个agent即UserProxyAgent和AssistantAgent,然后通过这两个agent相互协作来完成一个简单的任务。通过两个agent相互协作来完成任务这属于AutoGen的最基础的应用,今天我们来介绍更加复杂的应用: 多代理协作(Multi-Agent Collaboration)。

一、多代理协作(Multi-Agent Collaboration)

所谓多代理协作是指通过创建多个agent来完成复杂任务的一种agent的工作方式,那为什么需要创建多个agent才能完成任务呢?这取决于任务的复杂程度,对于简单任务我们一般只需要创建2个agent(UserProxyAgent和AssistantAgent)即可。但是对于有些复杂的任务2个agent往往效率不高从而导致任务难以完成,因此遇到复杂任务时我们往往需要创建多个agent,通过多个agent一起协作才能更高效的完成任务,下面我们首先回顾以下AutoGen中的常用的两种agent类型和作用:

  • UserProxyAgent: 用户代理(代表人类),它的职责是发布任务,执行代码(包括执行AssistantAgent生成的代码) ,将代码执行结果反馈给AssistantAgent。
  • AssistantAgent:助理代理(代表LLM), 它的职责是对问题进行分析、推理、归纳、总结,同时生成解决问题的代码(如何需要)。

当遇到一个复杂问题时,我们可能需要创建多个UserProxyAgent或者多个AssistantAgent,那么如何让多个agent在一起顺畅的沟通交流呢?那就需要我们创建一套多个agent之间相互沟通的机制,下面我们就来介绍一种常见的多代理沟通机制: manager-broadcast, 即经理广播机制如下图所示:

在manager-broadcast机制中我们会创建一个聊天组(GroupChat),然后我们将所有的agent都放入这个组中,同时我们还需要创建一个manager,它将作为组的管理员负责收/发组成员(agents)的消息。当某个agent需要和别的agent交流时,只需要向manager发送消息即可,而manager则会将该消息广播给所有其他组成员,这样就实现了agent之间的相互交流沟通,如上图所示。下面我们就来通过一个例子来看看多个agent时如何通过manager-broadcast机制一起协作来完成任务的。

1.1 环境配置

首先请新建一个python 3.8 以上版本的虚拟环境,并在命令行中执行以下安装命令:

pip install pyautogen

接下来我们需要导入autogen包,并配置openai的api_key:

  1. import autogen
  2. config_list = [
  3. {
  4. 'model': 'gpt-4',
  5. 'api_key': 'your_api_key',#输入用户自己的api_key
  6. }
  7. ]

我们需要说明一下的是这里我们将创建的AssistantAgent都是基于gpt-4模型,因为gpt-4模型具有非常强大的分析和推理能力,因此它更适合来解决复杂的任务。

1.2 任务说明

今天我们通过autogen来实现这样一个任务:在arxiv上查找有关gpt-4的最新论文,并从中找出它们的潜在应用场景。要实现这样一个任务一般情况下可能需要如下这些步骤

  1. 从论文网站arxiv上下载关于gpt-4的最新论文。
  2. 然后读取这些论文的主要内容。
  3. 根据论文内容罗列出关于gpt-4的潜在的应用场景。

1.3 构建agent

从上面这个任务内容上看,该任务可能需要多个步骤,因此我们需要创建多个agent:

  1. llm_config = {"config_list": config_list, "cache_seed": 42}
  2. #创建用户代理
  3. user_proxy = autogen.UserProxyAgent(
  4. name="User_proxy",
  5. system_message="A human admin.",
  6. code_execution_config={
  7. "last_n_messages": 2,
  8. "work_dir": "groupchat",
  9. "use_docker": False,
  10. },
  11. human_input_mode="TERMINATE",
  12. )
  13. #创建程序员代理
  14. coder = autogen.AssistantAgent(
  15. name="Coder",
  16. llm_config=llm_config,
  17. )
  18. #创建产品经理
  19. pm = autogen.AssistantAgent(
  20. name="Product_manager",
  21. system_message="Creative in software product ideas.",
  22. llm_config=llm_config,
  23. )
  24. #创建聊天组
  25. groupchat = autogen.GroupChat(agents=[user_proxy, coder, pm],
  26. messages=[],
  27. max_round=12)
  28. #创建组管理员
  29. manager = autogen.GroupChatManager(groupchat=groupchat, llm_config=llm_config)

这里我们创建了一个UserProxyAgent和两个AssistantAgent,下面我们对它们的功能做一下说明:

  • user_proxy :用户代理,它的职责是发布任务,执行coder生成的代码 ,并将代码执行结果反馈给coder和pm。
  • coder: 程序员代理,负责按要求生成完成任务所需要的代码,并根据user_proxy反馈的代码执行结果修改和完善代码,直到代码被user_proxy成功执行。
  • pm: 产品经理代理, 它对user_proxy成功执行代码后的结果进行归纳和总结并生成最终的结果。

这里我们看到user_proxy继承自autogen的UserProxyAgent类,而coder和pm继承自autogen的AssistantAgent类,也就是说user_proxy它代表了人类,因此它可以发布任务,执行代码,反馈结果等功能,而coder和pm则代表了大模型gpt-4, 因此它们具备生成代码、推理、总结归纳相关内容等强大能力。

对于创建user_proxy 时使用的各种参数,大家可以参考官方文档,这里再做一个简要的介绍如下图所示:

下面是创建AssistantAgent时的参数说明,同样大家也可以参考官方文档 :

 这里有一个重要的参数system_message需要说明一下,当我们在创建agent时一般都会设置一个system_message参数,该参数的作用是让LLM了解当前agent扮演什么角色,它的职能是什么。下面我们看一下user_proxy、coder、pm的system_message参数:

  • user_proxy:“A human admin.”  意思为人类管理员,让llm知道user_proxy代表人类管理员。
  • pm: “Creative in software product ideas.” 意思为为软件产品提供创意,让llm知道pm可以为软件产品提供创意。
  • coder: 无。

这里我们看到coder虽然没有设置system_message参数,但是llm也能够从coder的name("Coder")中推断出coder的角色和职能即coder代表一个编码员(程序员)。

当我们创建了以上3个agent之后我们又创建了一个聊天组groupchat ,同时我们将所有的agent都放入了这个组中,下面是官网文档中对GroupChat类的参数的说明:

当创建GroupChat以后,我们还需要创建一个manager,它用来收/发所有组成员的消息,这里需要说明的是manager具有广播的功能,即当某个agent想和其他agent对话时,只需要将消息放送给manager,而manager则负责将该消息广播给其他所有的agent, 这样就完成了不同agent之间的信息交流。

1.5 执行任务

当我们完成了三个agent以及groupchat和manager的创建,接下来就可以开始执行任务了,在执行任务时我们首先让user_proxy 发布一个人类的具体任务:

  1. user_proxy.initiate_chat(
  2. manager,
  3. message="在arxiv上查找有关gpt-4的最新论文,并从中找出它们的潜在应用场景。"
  4. )
从上面的代码中我们看到 user_proxy 是向manager发送了一个message,该message包含了任务的具体内容,接下来是任务执行的具体过程:

从上面的执行过程中我们看到所有的agent都是给manager发送消息,manager则起到了广播消息的作用,并且我们观察到代理们执行任务的流程大致分为以下这些步骤:

  • 第一步:user_proxy 发布一个任务
  • 第二步: Coder 生成 获取gpt4论文内容的python代码
  • 第三步: user_proxy 在本地执行Coder生成的代码,并打印相关论文的title和Summary等信息
  • 第四步:Product_manager 根据论文title和Summary,总结出若干条关于GPT-4应用场景的内容。
  • 第五步: Coder Product_manager给出的相关内容给与评价并在结尾处打上任务完成标记“TERMINATE” 表示任务完成。

总结

在今天介绍了AutoGEN中的多代理协作(Multi-Agent Collaboration)的基本原理,即当我们遇到较为复杂的任务时我们可以创建多个agent,并且为每个agent赋予不同的角色如(user_proxy, coder,pm)等,并且每个角色都要有角色说明(system_message),通过角色说明可以让LLM充分了解当前agent的作用,同时我们还创建了一个GroupChat组和组管理员manager,并且将所有的agent都放入GroupChat组中,这样通过manager的广播机制就可以实现不同agent之间的相互沟通,并且互相协作来完成一个较为复杂的任务,希望今天的内容对大家学习AutoGen有所帮助.

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/983837
推荐阅读
相关标签
  

闽ICP备14008679号