当前位置:   article > 正文

(18-5-02)Agents(智能代理):流式传输(Streaming)_agentexecutor.stream

agentexecutor.stream

6.5.2  流式传输(Streaming)

在LangChain中,流式传输(Streaming)是一种技术,它允许应用程序逐步接收和处理语言模型(LLM)生成的输出,而不是等待整个响应生成完毕后再进行处理。这种技术对于提升用户体验(UX)尤其重要,因为它可以即时提供信息,而不是让用户等待。

1. 流式传输的好处

在实际应用中,使用流式传输的好处如下:

  1. 实时反馈:用户可以立即看到代理的思考过程和部分答案,提高了交互的实时性。
  2. 处理长输出:对于生成的长文本,流式传输可以避免内存溢出的问题。
  3. 用户体验:在某些应用场景下,如聊天应用,用户可能更倾向于接收连续的信息流,而非一次性的完整输出。

2. 流式传输的实现方法

在LangChain中,提供了如下三种不同的流式传输方法。

  1. stream:这是最基本的流式传输方法,它可以逐步输出代理的动作和观察结果。
  2. astream:这是异步版本的流式传输,适用于需要异步处理的场景。
  3. astream_events:这是一个更细粒度的流式传输方法,它可以流式传输代理的每个事件,包括工具的调用和结束、模型的启动和结束等。

3. 实现流式传输

在LangChain中,实现流式传输的基本步骤如下所示。

(1)启用流式传输:在创建语言模型实例时,设置streaming=True以启用流式传输。

(2)定义工具:创建工具(tools),这些工具可以被代理在执行任务时调用。

(3)创建代理:使用语言模型和工具创建代理,并为其配置流式传输。

(4)执行流式传输:使用stream、astream或astream_events方法执行流式传输,并处理逐步接收到的数据。

4. 流式传输的输出

流式传输的输出通常包括:

  1. 动作(Actions):代理执行的具体动作,如调用某个工具。
  2. 观察(Observations):代理执行动作后得到的反馈或结果。
  3. 最终答案(Final Answer):代理完成任务后给出的最终答案。

5. 自定义流式传输(Custom Streaming)

在某些情况下,开发者可能需要自定义流式传输的行为。LangChain允许通过astream_events API来捕获和流式传输更多的细节,例如:

  1. 代理启动和结束:流式传输有关代理启动和结束的事件。
  2. 工具调用:流式传输每个工具调用的开始和结束事件。
  3. 令牌流式传输:流式传输语言模型生成的每个令牌。

请看下面的例子,使用库LangChain和asyncio创建并运行了一个自定义代理程序。

实例6-1创建并运行了一个自定义代理(源码路径:codes\6\Streaming01.py

实例文件Streaming01.py的具体实现代码如下所示。

  1. import asyncio
  2. from langchain import hub
  3. from langchain.agents import AgentExecutor, create_openai_tools_agent
  4. from langchain.tools import tool
  5. from langchain_openai import ChatOpenAI
  6. import random
  7. import pprint
  8. model = ChatOpenAI(temperature=0, streaming=True)
  9. @tool
  10. async def where_cat_is_hiding() -> str:
  11. return random.choice(["under the bed", "on the shelf"])
  12. @tool
  13. async def get_items(place: str) -> str:
  14. if "bed" in place:
  15. return "socks, shoes and dust bunnies"
  16. if "shelf" in place: # For 'shelf'
  17. return "books, pencils and pictures"
  18. else:
  19. return "cat snacks"
  20. async def main():
  21. await where_cat_is_hiding.ainvoke({})
  22. await get_items.ainvoke({"place": "shelf"})
  23. prompt = hub.pull("hwchase17/openai-tools-agent")
  24. tools = [get_items, where_cat_is_hiding]
  25. agent = create_openai_tools_agent(
  26. model.with_config({"tags": ["agent_llm"]}), tools, prompt
  27. )
  28. agent_executor = AgentExecutor(agent=agent, tools=tools).with_config(
  29. {"run_name": "Agent"}
  30. )
  31. chunks = []
  32. async for chunk in agent_executor.astream(
  33. {"input": "what's items are located where the cat is hiding?"}
  34. ):
  35. chunks.append(chunk)
  36. print("------")
  37. pprint.pprint(chunk, depth=1)
  38. asyncio.run(main())

上述代码的实现流程如下所示:

  1. 初始化语言模型:创建了一个ChatOpenAI实例,该实例将用于生成文本。streaming=True参数允许模型支持流式传输输出。
  2. 定义工具:定义了两个异步函数where_cat_is_hiding和get_items,它们被装饰为tool,这意味着它们可以被代理在执行任务时调用。
  3. where_cat_is_hiding工具:随机返回猫可能藏身的地点之一。
  4. get_items工具:根据传入的地点返回那个地方可能存放的物品。
  5. main函数:这是一个异步函数,首先测试了两个工具函数,然后创建了一个代理。
  6. 创建代理:使用create_openai_tools_agent函数创建了一个代理,该代理结合了语言模型、定义的工具和一个提示(prompt)。
  7. 配置代理执行器:使用AgentExecutor来配置如何运行代理。run_name被设置为"Agent",以便于跟踪和流式传输。
  8. 流式传输代理的输出:使用agent_executor.astream方法异步迭代代理的输出,每个中间步骤(包括动作和观察)都被添加到chunks列表中,并打印出来。
  9. 运行主函数:使用asyncio.run(main())启动异步事件循环并执行main函数。执行后会展示代理在解决查询“what's items are located where the cat is hiding?”时的中间步骤和最终答案。以下是可能的输出示例,其中包含了动作(actions)、观察(observations)、步骤(steps)和最终答案(output):
  1. ------
  2. {
  3. 'actions': [
  4. AgentAction(tool='where_cat_is_hiding', tool_input={}, log='Invoking: `where_cat_is_hiding` with `{}`')
  5. ],
  6. 'messages': [
  7. AIMessageChunk(content='', additional_kwargs={'tool_calls': [{'index': 0, 'id': 'call_id_1', 'function': {'arguments': '{}', 'name': 'where_cat_is_hiding'}, 'type': 'function'}]})
  8. ]
  9. }
  10. ------
  11. {
  12. 'messages': [
  13. FunctionMessage(content='on the shelf', name='where_cat_is_hiding')
  14. ],
  15. 'steps': [
  16. AgentStep(action=AgentAction(...), observation='on the shelf')
  17. ]
  18. }
  19. ------
  20. {
  21. 'actions': [
  22. AgentAction(tool='get_items', tool_input={'place': 'shelf'}, log='Invoking: `get_items` with `{"place": "shelf"}`')
  23. ],
  24. 'messages': [
  25. AIMessageChunk(content='', additional_kwargs={'tool_calls': [{'index': 1, 'id': 'call_id_2', 'function': {'arguments': '{"place": "shelf"}', 'name': 'get_items'}, 'type': 'function'}]})
  26. ]
  27. }
  28. ------
  29. {
  30. 'messages': [
  31. FunctionMessage(content='books, pencils and pictures', name='get_items')
  32. ],
  33. 'steps': [
  34. AgentStep(action=AgentAction(...), observation='books, pencils and pictures')
  35. ]
  36. }
  37. ------
  38. {
  39. 'messages': [
  40. AIMessage(content='The items located where the cat is hiding on the shelf are books, pencils, and pictures.')
  41. ],
  42. 'output': 'The items located where the cat is hiding on the shelf are books, pencils, and pictures.'
  43. }

在接下来的内容中,我们可以进一步操作上面的自定义代理,增加他的功能。

1. 消息(Messages)

在LangChain中,代理的输出包含了丰富的信息,包括动作(actions)、观察(observations)、步骤(steps)和最终答案(output)。除了这些结构化的数据,代理的交互还可以通过消息(messages)来访问和展示。每个代理输出的块(chunk)都包含了一个或多个消息,这些消息记录了代理执行过程中的通信。例如,在下面的代码中调用chunks[0]["actions"]时,可以看到代理执行的第一个动作是调用where_cat_is_hiding工具。

  1.     chunks[0]["actions"]
  2.     for chunk in chunks:
  3.         print(chunk["messages"])

执行后会输出:

  1. [AIMessageChunk(content='', additional_kwargs={'tool_calls': [{'index': 0, 'id': 'call_pKy4OLcBx6pR6k3GHBOlH68r', 'function': {'arguments': '{}', 'name': 'where_cat_is_hiding'}, 'type': 'function'}]})]
  2. [FunctionMessage(content='on the shelf', name='where_cat_is_hiding')]
  3. [AIMessageChunk(content='', additional_kwargs={'tool_calls': [{'index': 0, 'id': 'call_qZTz1mRfCCXT18SUy0E07eS4', 'function': {'arguments': '{\n "place": "shelf"\n}', 'name': 'get_items'}, 'type': 'function'}]})]
  4. [FunctionMessage(content='books, penciles and pictures', name='get_items')]
  5. [AIMessage(content='The items located where the cat is hiding on the shelf are books, pencils, and pictures.')]

2. 使用AgentAction/Observation

LangChain的代理输出不仅包含了消息,还包含了更丰富的结构化信息,这些信息被包含在动作(actions)和步骤(steps)中。这些结构化信息在某些情况下非常有用,但也可能会更难解析。

在LangChain中,可以使用AgentAction和Observation来处理代理输出中的结构化信息,这些信息可以用于构建更复杂的应用程序。AgentAction和Observation的结构如下:

  1. AgentAction:记录了代理执行的具体动作,例如调用某个工具。
  2. Observation:记录了代理动作的结果,即观察到的信息。

例如下面是一个异步流式传输的例子,展示了逐步处理代理输出的用法。

  1. async for chunk in agent_executor.astream(
  2. {"input": "what's items are located where the cat is hiding?"}
  3. ):
  4. # 代理动作
  5. if "actions" in chunk:
  6. for action in chunk["actions"]:
  7. print(f"Calling Tool: `{action.tool}` with input `{action.tool_input}`")
  8. # 观察结果
  9. elif "steps" in chunk:
  10. for step in chunk["steps"]:
  11. print(f"Tool Result: `{step.observation}`")
  12. # 最终结果
  13. elif "output" in chunk:
  14. print(f'Final Output: {chunk["output"]}')
  15. else:
  16. raise ValueError()
  17. print("---")

执行后会输出:

  1. Calling Tool: `where_cat_is_hiding` with input `{}`
  2. ---
  3. Tool Result: `on the shelf`
  4. ---
  5. Calling Tool: `get_items` with input `{'place': 'shelf'}`
  6. ---
  7. Tool Result: `books, pencils and pictures`
  8. ---
  9. Final Output: The items located where the cat is hiding on the shelf are books, pencils, and pictures.
  10. ---

3. 使用astream_events API自定义流式传输

在LangChain框架中,astream_events API 提供了一种灵活的方法来实时传递代理执行过程中的事件流。这对于需要精细控制代理行为和定制用户界面的应用场景非常有帮助。通过这个API,开发者可以捕获和响应代理操作的各个阶段,包括代理启动、工具调用的开始和结束,以及最终答案的逐个令牌流式传输。

通过使用astream_events API,开发者可以根据特定的应用需求,定制化地处理这些事件。例如,可以在代理开始处理输入时显示一个加载指示器,在工具完成执行时更新界面,或者在最终答案生成时高亮显示结果。这种细粒度的控制使得用户界面能够更加动态和响应式,提供更好的用户体验

例如下面的代码展示了使用astream_events API实现异步流式传输和处理代理执行的事件的过程。

  1. async for event in agent_executor.astream_events(
  2. {"input": "where is the cat hiding? what items are in that location?"},
  3. version="v1",
  4. ):
  5. kind = event["event"]
  6. if kind == "on_chain_start":
  7. if event["name"] == "Agent":
  8. print(f"Starting agent: {event['name']} with input: {event['data'].get('input')}")
  9. elif kind == "on_chain_end":
  10. if event["name"] == "Agent":
  11. print()
  12. print("--")
  13. print(f"Done agent: {event['name']} with output: {event['data'].get('output')['output']}")
  14. if kind == "on_chat_model_stream":
  15. content = event["data"]["chunk"].content
  16. if content:
  17. print(content, end="|")
  18. elif kind == "on_tool_start":
  19. print("--")
  20. print(f"Starting tool: {event['name']} with inputs: {event['data'].get('input')}")
  21. elif kind == "on_tool_end":
  22. print(f"Done tool: {event['name']}")
  23. print(f"Tool output was: {event['data'].get('output')}")
  24. print("--")

在上述代码中,使用async for循环遍历agent_executor.astream_events返回的事件流。对于每种类型的事件,代码中都有一个对应的if或elif分支来处理。这允许开发者根据事件的类型执行特定的操作,例如打印日志、更新界面或者执行其他业务逻辑。在上述代码中,事件的处理流程如下:

  1. 代理启动:当代理开始处理输入时,on_chain_start事件被触发,开发者可以获取代理的名称和输入数据。
  2. 代理结束:处理完成后,on_chain_end事件标识代理已完成其任务,并且可以获取最终的输出结果。
  3. 模型流式传输:在代理与语言模型交互时,on_chat_model_stream事件允许开发者逐个令牌地接收和处理生成的内容。
  4. 工具启动和结束:每当代理调用一个工具时,on_tool_start和on_tool_end事件分别表示工具的开始和结束,同时提供了工具的输入和输出信息。

执行后会输出:

  1. Starting agent: Agent with input: {'input': 'where is the cat hiding? what items are in that location?'}
  2. --
  3. Starting tool: where_cat_is_hiding with inputs: {}
  4. Done tool: where_cat_is_hiding
  5. Tool output was: on the shelf
  6. --
  7. --
  8. Starting tool: get_items with inputs: {'place': 'shelf'}
  9. Done tool: get_items
  10. Tool output was: books, pencils and pictures
  11. --
  12. The| cat| is| currently| hiding| on| the| shelf|.| In| that| location|,| you| can| find| books|,| pencils|,| and| pictures|.|
  13. --
  14. Done agent: Agent with output: The cat is currently hiding on the shelf. In that location, you can find books, pencils, and pictures.

注意:由于astream_events是一个测试版API,可能会根据用户反馈和使用情况进行调整,因此在使用时需要注意可能的更新和变化。同时,为了确保所有回调都能正常工作,建议在应用中使用异步代码,并避免混用同步版本的工具。

在LangChain中,如果你的工具需要使用LangChain的可运行对象(例如LLMs、检索器等),并且希望从这些对象中流式传输事件,那么需要确保回调(callbacks)被正确传递。例如下面的代码演示了在工具内部实现流式传输事件的过程。

  1. @tool
  2. async def get_items(place: str, callbacks: Callbacks) -> str:
  3. ""“使用此工具查询给定地点可能存放的物品。”""
  4. # 创建一个提示模板并配置LLM
  5. template = ChatPromptTemplate.from_messages([
  6. ("human", f"你能告诉我在'{place}'这个地方可能找到哪些物品吗?")
  7. ])
  8. chain = template | model.with_config(
  9. {"run_name": "Get Items LLM", "tags": ["tool_llm"], "callbacks": callbacks}
  10. )
  11. # 异步流式传输链生成的文本块
  12. chunks = [chunk async for chunk in chain.astream({"place": place})]
  13. return "".join(chunk.content for chunk in chunks)
  14. # 初始化代理并使用astream_events来监听事件
  15. async for event in agent_executor.astream_events({"input": "where is the cat hiding?"}, version="v1"):
  16. # 根据事件类型处理事件
  17. if event["event"] == "on_chain_start":
  18. # 代理或工具启动时的逻辑
  19. elif event["event"] == "on_chain_end":
  20. # 代理或工具结束时的逻辑
  21. # ... 其他事件类型的处理逻辑

在工具内部的流式传输事件是一种强大的技术,它允许开发者实时监控和响应LangChain可运行对象的行为。通过传递回调和使用LangChain的流式传输API,可以构建更加动态和交互性强的应用,这对于需要实时反馈或复杂用户界面的应用尤其有用。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/喵喵爱编程/article/detail/883953
推荐阅读
相关标签
  

闽ICP备14008679号