赞
踩
这将所有可用的代理按照几个维度进行分类。
用于聊天模型(接收信息,输出信息)或 LLM(接收字符串,输出字符串)。这主要影响所使用的提示策略。
这些代理类型是否支持聊天历史记录。如果支持,就意味着可以作为聊天机器人使用。如果不支持,则意味着它更适合单一任务。支持聊天记录通常需要更好的模型,因此早期针对较差模型的代理类型可能不支持聊天记录。
这些代理类型是否支持多输入工具。如果一个工具只需要单一输入,那么 LLM 通常更容易知道如何调用它。因此,早期几种针对较差模型的代理类型可能不支持它们。
让 LLM 同时调用多个工具可以大大加快代理的速度,无论是否有任务需要通过这样做来协助。不过,LLM 要做到这一点要困难得多,因此有些代理类型不支持这一点。
该代理是否要求模型支持任何附加参数。有些代理类型会利用 OpenAI 函数调用等功能,这就需要其他模型参数。如果不需要,则表示一切都通过提示完成。
何时应考虑使用该代理类型:
Agent Type | Intended Model Type | Supports Chat History | Supports Multi-Input Tools | Supports Parallel Function Calling | Required Model Params | When to Use |
---|---|---|---|---|---|---|
OpenAI Tools | Chat | ✅ | ✅ | ✅ | tools | 若使用的最新OpenAI model (1106+) |
OpenAI Functions | Chat | ✅ | ✅ | functions | 如果您使用的是 OpenAI 模型,或者是针对函数调用进行了微调并公开了与 OpenAI 相同函数参数的开源模型 | |
XML | LLM | ✅ | Anthropic模型或其他擅长 XML 的模型 | |||
Structured Chat | Chat | ✅ | ✅ | 如果您需要支持具有多个输入的工具,并且正在使用不支持函数调用的模型 | ||
ReAct | LLM | ✅ | 简化模型 |
来看看内置的主要agent类型:
Openai函数调用型,某些模型(如 OpenAI 的 gpt-3.5-turbo 和 gpt-4)已经过微调,可以检测函数何时应该被调用,并响应应该传递给函数的输入。在 API 调用中,你可描述函数,并让模型智能地选择输出一个包含参数的 JSON 对象来调用这些函数。
OPENAI_FUNCTIONS代理旨在与这些模型配合使用。
零样本增强生成型
from langchain.agents import ( load_tools, initialize_agent, AgentType, ) import os os.environ["SERPAPI_API_KEY"] = "xxx" # 定义llm class QwenTurboTongyi(Tongyi): model_name = "qwen-turbo" llm = QwenTurboTongyi(temperature=1) tools = load_tools(["serpapi","llm-math"],llm=llm) agent = initialize_agent( tools, llm, agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION, verbose=True, ) print(agent) print(agent.agent.llm_chain.prompt.template) agent.invoke("现在美国总统是谁?他的年龄除以2是多少?")
零样本增强生成型(对话),使用了chatmodel
tools = load_tools(["serpapi","llm-math"],llm=llm)
agent = initialize_agent(
tools,
llm,
agent=AgentType.CHAT_ZERO_SHOT_REACT_DESCRIPTION,
verbose=True,
)
print(agent)
print(agent.agent.llm_chain.prompt.messages[0].prompt.template)
agent.invoke("现在美国总统是谁?他的年龄除以2是多少?")
对话增强生成型
from langchain.memory import ConversationBufferMemory #记忆组件 memory = ConversationBufferMemory( memory_key="chat_history", ) tools = load_tools(["serpapi","llm-math"],llm=llm) agent = initialize_agent( tools, llm, agent=AgentType.CONVERSATIONAL_REACT_DESCRIPTION, memory=memory,#记忆组件 verbose=True, ) print(agent) print(agent.agent.llm_chain.prompt.template)
agent.run("hi i am JavaEdge")
agent.run("what is my name?")
agent.run("有什么好吃的中国菜可以推荐给我吗?")
agent.run(input="我都没吃过!我名字的最后一个字母是什么?1998年的世界杯谁夺冠了?")
结构化对话生成增强型
from langchain.memory import ConversationBufferMemory #记忆组件 memory = ConversationBufferMemory( memory_key="chat_history", return_messages=True, ) tools = load_tools(["serpapi","llm-math"],llm=llm) agent = initialize_agent( tools, llm, agent=AgentType.STRUCTURED_CHAT_ZERO_SHOT_REACT_DESCRIPTION, memory=memory,#记忆组件 handle_parsing_errors=True, verbose=True, ) print(agent) print(agent.agent.llm_chain.prompt.messages[0].prompt.template) print(agent.agent.llm_chain.prompt.messages[1].prompt.template)
关注我,紧跟本系列专栏文章,咱们下篇再续!
作者简介:魔都架构师,多家大厂后端一线研发经验,在分布式系统设计、数据平台架构和AI应用开发等领域都有丰富实践经验。
各大技术社区头部专家博主。具有丰富的引领团队经验,深厚业务架构和解决方案的积累。
负责:
中央/分销预订系统性能优化
活动&券等营销中台建设
交易平台及数据中台等架构和开发设计
车联网核心平台-物联网连接平台、大数据平台架构设计及优化
LLM应用开发
目前主攻降低软件复杂性设计、构建高可用系统方向。
参考:
本文由博客一文多发平台 OpenWrite 发布!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。