赞
踩
平常我们的任务都是一次性会话,大模型是不会记录你的上下文的。如果我们要进行持续会话,或者希望大模型有记忆的话,我们需要对上下文进行管理。但这个过程是比较复杂的,LangChain
提供了一系列的工具来帮助我们简化过程。
pip install --upgrade --quiet langchain-core langchain langchain-openai
from operator import itemgetter from langchain.memory import ConversationBufferMemory from langchain_core.prompts import ChatPromptTemplate, MessagesPlaceholder from langchain_core.runnables import RunnableLambda, RunnablePassthrough from langchain_openai import ChatOpenAI model = ChatOpenAI() prompt = ChatPromptTemplate.from_messages( [ ("system", "You are a helpful chatbot"), MessagesPlaceholder(variable_name="history"), ("human", "{input}"), ] ) memory = ConversationBufferMemory(return_messages=True) memory.load_memory_variables({}) chain = ( RunnablePassthrough.assign( history=RunnableLambda(memory.load_memory_variables) | itemgetter("history") ) | prompt | model ) inputs1 = {"input": "hi im wzk"} message1 = chain.invoke(inputs1) print(f"message1: {message1}") # no memory inputs2 = {"input": "whats my name?"} message2 = chain.invoke(inputs2) print(f"message2: {message2}") # save message1 memory memory.save_context(inputs1, {"output": message1.content}) # 加载 memory memory.load_memory_variables({}) inputs3 = {"input": "whats my name"} message3 = chain.invoke(inputs3) print(f"message3: {message3}")
➜ python3 test13.py
message1: content='Hello Wzk! How can I assist you today?' response_metadata={'finish_reason': 'stop', 'logprobs': None}
message2: content="I'm sorry, but I don't know your name. You never told me." response_metadata={'finish_reason': 'stop', 'logprobs': None}
message3: content='Your name is "wzk".' response_metadata={'finish_reason': 'stop', 'logprobs': None}
从会话中我们可以看到,第一次会话大模型是不知道的我们的名字的,但是在代码中,我们通过Memory
的方式保留了记忆,此时我们再询问大模型,大模型就知道了我们的名字,并且正确的回答了。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。