当前位置:   article > 正文

AI agent简介及实现_ai agent设计器

ai agent设计器

一. 简介 

直观公式

Agent = LLM+Planning+Feedback+Tool use

Agent决策流程

1.感知(Perception)是指Agent从环境中收集信息并从中提取相关知识的能力。
2.规划(Planning)是指Agent为了某一目标而作出的决策过程。
3.行动(Action)是指基于环境和规划做出的动作。

 Agent通过感知从环境中收集信息并提取相关知识。然后通过规划为了达到某个目标做出决策。最后,通过行动基于环境和规划做出具体的动作。Policy是Agent做出行动的核心决策,而行动又为进一步感知提供了观察的前提和基础,形成了一个自主的闭环学习过程。

为Agent创建一个目标或主任务后,主要分为以下三个步骤:

  1. 获取第一个未完成的任务
  2. 收集中间结果并储存到向量数据库中
  3. 创建新的任务,并重新设置任务列表的优先级

二.实现:通过autogen来实现

1.安装autoagen

  1. pip install openai
  2. pip install pyautogen

2.把配置填写到config_list上

config_list = [{'model': 'gpt-3.5-turbo', 'api_key': '<your OpenAI API key here>'}]

3.创建程序

1.引入并实例化出用户代理对象和助手代理对象

  1. from autogen import AssistantAgent, UserProxyAgent
  2. assistant = AssistantAgent(
  3. name="Magic",
  4. llm_config={
  5. "seed": 42, # seed for caching and reproducibility
  6. "config_list": config_list, # a list of OpenAI API configurations
  7. "temperature": 0, # temperature for sampling
  8. }, # configuration for autogen's enhanced inference API which is compatible with OpenAI API
  9. )
  10. user_proxy = UserProxyAgent(
  11. name="user_proxy",
  12. max_consecutive_auto_reply=2,
  13. is_termination_msg=lambda x: x.get("content", "").rstrip().endswith("TERMINATE"),
  14. code_execution_config={
  15. "work_dir": "coding",
  16. "use_docker": True, # set to True or image name like "python:3" to use docker
  17. },
  18. llm_config={"config_list": config_list}
  19. )

2.使用initiate_chat函数进行推理

  1. user_proxy.initiate_chat(
  2. assistant,
  3. message="""告诉我今天的气温"""
  4. ,clear_history = True
  5. )

3.完整代码

  1. from autogen import AssistantAgent, UserProxyAgent, config_list_from_json
  2. config_list = [{'model': 'gpt-3.5-turbo', 'api_key': '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'}]
  3. assistant = AssistantAgent(
  4. name="Monika",
  5. llm_config={
  6. "seed": 42, # seed for caching and reproducibility
  7. "config_list": config_list, # a list of OpenAI API configurations
  8. "temperature": 0, # temperature for sampling
  9. }, # configuration for autogen's enhanced inference API which is compatible with OpenAI API
  10. )
  11. user_proxy = UserProxyAgent(
  12. name="user_proxy",
  13. max_consecutive_auto_reply=2,
  14. is_termination_msg=lambda x: x.get("content", "").rstrip().endswith("TERMINATE"),
  15. code_execution_config={
  16. "work_dir": "coding",
  17. "use_docker": True, # set to True or image name like "python:3" to use docker
  18. },
  19. llm_config={"config_list": config_list}
  20. )
  21. user_proxy.initiate_chat(
  22. assistant,
  23. message="""告诉我今天的气温"""
  24. ,clear_history = True
  25. )

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/运维做开发/article/detail/766694
推荐阅读
相关标签
  

闽ICP备14008679号