赞
踩
大多数LLM应用程序都有一个会话接口。会话的一个重要组成部分是能够参考会话早期的信息(上文信息)。这种存储过去互动信息的能力就称为“记忆(Memory)”。LangChain提供了许多用于向系统添加Memory的封装。
目前 LangChain 中大多数的Memory封装还都是测试版本。成熟的Memory主要是
ChatMessageHistory
。
Memory,通俗的讲,就是记录对话的上下文信息,在有需要的时候补充到用户的提问中去。看上图,简单说下Memory的使用流程:
下面让我们来看一看LangChain的Memory到底长什么样。
ConversationBufferMemory
这是最简单的Memory形式,保存形式类似是chat message的数组。 使用方法如下:
save_context
可以保存信息到memory中load_memory_variables
获取memory中的信息chat_memory.add_user_message
和chat_memory.add_ai_message
也可以用来保存信息到memory中python 复制代码 from langchain.memory import ConversationBufferMemory, ConversationBufferWindowMemory history = ConversationBufferMemory() history.save_context({"input": "你好啊"}, {"output": "你也好啊"}) print(history.load_memory_variables({})) history.save_context({"input": "你再好啊"}, {"output": "你又好啊"}) print(history.load_memory_variables({})) history.chat_memory.add_user_message("你在干嘛") history.chat_memory.add_ai_message("我在学习") print(history.load_memory_variables({})) ## 或者直接使用 ChatMessageHistory 添加memory,效果一样 # from langchain.memory import ChatMessageHistory # chat_history = ChatMessageHistory() # chat_history.add_user_message("你在干嘛") # chat_history.add_ai_message("我在学习") # print(history.load_memory_variables({}))
运行结果:
上面的结果,可以看到返回的信息永远都是以“history”开头的,怎么修改这个key呢?只需要修改下面一句,填入 memory_key
参数。
python
复制代码
history = ConversationBufferMemory(memory_key="chat_history_with_同学小张")
运行结果:
返回的结果还有一点值得注意,那就是它目前返回的是一个json字符串,这是可以直接给LLMs对话输入的。但对于ChatModels对话,它接收的参数是Chat Messages数组。我们可以通过改变参数return_messages=True
,让这个memory的返回变成Chat Messages数组。
python
复制代码
history = ConversationBufferMemory(memory_key="chat_history_with_同学小张", return_messages=True)
返回结果:
ConversationBufferWindowMemory
ConversationBufferWindowMemory允许用户设置一个K参数,来限定每次从记忆中读取最近的K条记忆。
python
复制代码
from langchain.memory import ConversationBufferWindowMemory
window = ConversationBufferWindowMemory(k=1)
window.save_context({"input": "第一轮问"}, {"output": "第一轮答"})
window.save_context({"input": "第二轮问"}, {"output": "第二轮答"})
window.save_context({"input": "第三轮问"}, {"output": "第三轮答"})
print(window.load_memory_variables({}))
运行结果:
ConversationTokenBufferMemory
ConversationTokenBufferMemory允许用户指定最大的token长度,使得从记忆中取上文时不会超过token限制。
python
复制代码
from langchain.memory import ConversationTokenBufferMemory
memory = ConversationTokenBufferMemory(
llm=llm,
max_token_limit=45
)
memory.save_context(
{"input": "你好啊"}, {"output": "你好,我是你的AI助手。"})
memory.save_context(
{"input": "你会干什么"}, {"output": "我什么都会"})
print(memory.load_memory_variables({}))
本文我们学习了 LangChain 的 Memory 记忆模块,可以看到它里面封装了很多的记忆类型,在项目中可以按需选用。但是也应该认识到,目前LangChain的记忆模块还不成熟,是测试版本。LangChain的快速迭代,需要我们时刻关注它的变化。
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。