当前位置:   article > 正文

LangChain-13 Memory 通过 ConversationBufferMemory 记录会话的上下文 并在对话中自动检索_使用langchain持续会话代码

使用langchain持续会话代码

请添加图片描述

问题背景

平常我们的任务都是一次性会话,大模型是不会记录你的上下文的。如果我们要进行持续会话,或者希望大模型有记忆的话,我们需要对上下文进行管理。但这个过程是比较复杂的,LangChain 提供了一系列的工具来帮助我们简化过程。

安装依赖

pip install --upgrade --quiet  langchain-core langchain langchain-openai
  • 1

编写代码

from operator import itemgetter

from langchain.memory import ConversationBufferMemory
from langchain_core.prompts import ChatPromptTemplate, MessagesPlaceholder
from langchain_core.runnables import RunnableLambda, RunnablePassthrough
from langchain_openai import ChatOpenAI

model = ChatOpenAI()
prompt = ChatPromptTemplate.from_messages(
    [
        ("system", "You are a helpful chatbot"),
        MessagesPlaceholder(variable_name="history"),
        ("human", "{input}"),
    ]
)

memory = ConversationBufferMemory(return_messages=True)
memory.load_memory_variables({})

chain = (
    RunnablePassthrough.assign(
        history=RunnableLambda(memory.load_memory_variables) | itemgetter("history")
    )
    | prompt
    | model
)

inputs1 = {"input": "hi im wzk"}
message1 = chain.invoke(inputs1)
print(f"message1: {message1}")

# no memory
inputs2 = {"input": "whats my name?"}
message2 = chain.invoke(inputs2)
print(f"message2: {message2}")

# save message1 memory
memory.save_context(inputs1, {"output": message1.content})

# 加载 memory
memory.load_memory_variables({})
inputs3 = {"input": "whats my name"}
message3 = chain.invoke(inputs3)
print(f"message3: {message3}")

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45

运行代码

➜ python3 test13.py
message1: content='Hello Wzk! How can I assist you today?' response_metadata={'finish_reason': 'stop', 'logprobs': None}
message2: content="I'm sorry, but I don't know your name. You never told me." response_metadata={'finish_reason': 'stop', 'logprobs': None}
message3: content='Your name is "wzk".' response_metadata={'finish_reason': 'stop', 'logprobs': None}

  • 1
  • 2
  • 3
  • 4
  • 5

从会话中我们可以看到,第一次会话大模型是不知道的我们的名字的,但是在代码中,我们通过Memory的方式保留了记忆,此时我们再询问大模型,大模型就知道了我们的名字,并且正确的回答了。
在这里插入图片描述

声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号