当前位置:   article > 正文

ChatGPT|LangChain介绍_chatgpt langchain

chatgpt langchain

什么是LangChain?

使用ChatGPT大家可能都是知道prompt, 

(1)想像一下,如果我需要快速读一本书,想通过本书作为prompt,使用ChatGPT根据书本中来回答问题,我们需要怎么做? 

(2)假设你需要一个问答任务用到prompt A,摘要任务要使用到prompt B,那如何管理这些prompt呢?因此需要用LangChain来管理这些prompt。

LangChain的出现,简化了我们在使用ChatGPT的工程复杂度。

LangChain中的模块,每个模块如何使用?

前提:运行一下代码,需要OPENAI_API_KEY(OpenAI申请的key),同时统一引入这些库:

  1. # 导入LLM包装器
  2. from langchain import OpenAI, ConversationChain
  3. from langchain.agents import initialize_agent
  4. from langchain.agents import load_tools
  5. from langchain.chains import LLMChain
  6. from langchain.prompts import PromptTemplate

LLM:从语言模型中输出预测结果,和直接使用OpenAI的接口一样,输入什么就返回什么。

  1. llm = OpenAI(model_name="text-davinci-003", temperature=0.9// 这些都是OpenAI的参数
  2. text = "What would be a good company name for a company that makes colorful socks?"
  3. print(llm(text)) 
  4. // 以上就是打印调用OpenAI接口的返回值,相当于接口的封装,实现的代码可以看看github.com/hwchase17/langchain/llms/openai.py的OpenAIChat

以上代码运行结果:

Cozy Colours Socks.

Prompt Templates:管理LLMs的Prompts,就像我们需要管理变量或者模板一样。

  1. prompt = PromptTemplate(
  2.     input_variables=["product"],
  3.     template="What is a good name for a company that makes {product}?",
  4. )
  5. // 以上是两个参数,一个输入变量,一个模板字符串,实现的代码可以看看github.com/hwchase17/langchain/prompts
  6. // PromptTemplate实际是基于StringPromptTemplate,可以支持字符串类型的模板,也可以支持文件类型的模板

以上代码运行结果:

What is a good name for a company that makes colorful socks?

Chains:将LLMs和prompts结合起来,前面提到提供了OpenAI的封装和你需要问的字符串模板,就可以执行获得返回了。

  1. from langchain.chains import LLMChain
  2. chain = LLMChain(llm=llm, prompt=prompt) // 通过LLM的llm变量,Prompt Templates的prompt生成LLMChain
  3. chain.run("colorful socks"// 实际这里就变成了实际问题:What is a good name for a company that makes colorful socks?

Agents:基于用户输入动态地调用chains,LangChani可以将问题拆分为几个步骤,然后每个步骤可以根据提供个Agents做相关的事情。

  1. # 导入一些tools,比如llm-math
  2. # llm-math是langchain里面的能做数学计算的模块
  3. tools = load_tools(["llm-math"], llm=llm)
  4. # 初始化tools,models 和使用的agent
  5. agent = initialize_agent(
  6.     tools, llm, agent="zero-shot-react-description", verbose=True)
  7. text = "12 raised to the 3 power and result raised to 2 power?"
  8. print("input text: ", text)
  9. agent.run(text)

通过如上的代码,运行结果(拆分为两个部分):

  1. > Entering new AgentExecutor chain...
  2.  I need to use the calculator for this
  3. Action: Calculator
  4. Action Input12^3
  5. Observation: Answer: 1728
  6. Thought: I need to then raise the previous result to the second power
  7. Action: Calculator
  8. Action Input1728^2
  9. Observation: Answer: 2985984
  10. Thought: I now know the final answer
  11. Final Answer: 2985984
  12. > Finished chain.

Memory:就是提供对话的上下文存储,可以使用Langchain的ConversationChain,在LLM交互中记录交互的历史状态,并基于历史状态修正模型预测

  1. # ConversationChain用法
  2. llm = OpenAI(temperature=0)
  3. # 将verbose设置为True,以便我们可以看到提示
  4. conversation = ConversationChain(llm=llm, verbose=True)
  5. print("input text: conversation")
  6. conversation.predict(input="Hi there!")
  7. conversation.predict(
  8.   input="I'm doing well! Just having a conversation with an AI.")

通过多轮运行以后,就会出现:

  1. Prompt after formatting:
  2. The following is a friendly conversation between a human and an AI. The AI is talkative and provides lots of specific details from its context. If the AI does not know the answer to a question, it truthfully says it does not know.
  3. Current conversation:
  4. Human: Hi there!
  5. AI:  Hi there! It's nice to meet you. How can I help you today?
  6. Human: I'm doing well! Just having a conversation with an AI.
  7. AI:  That's great! It's always nice to have a conversation with someone new. What would you like to talk about?

具体代码

如下:

  1. # 导入LLM包装器
  2. from langchain import OpenAI, ConversationChain
  3. from langchain.agents import initialize_agent
  4. from langchain.agents import load_tools
  5. from langchain.chains import LLMChain
  6. from langchain.prompts import PromptTemplate
  7. # 初始化包装器,temperature越高结果越随机
  8. llm = OpenAI(temperature=0.9)
  9. # 进行调用
  10. text = "What would be a good company name for a company that makes colorful socks?"
  11. print("input text: ", text)
  12. print(llm(text))
  13. prompt = PromptTemplate(
  14.   input_variables=["product"],
  15.   template="What is a good name for a company that makes {product}?",
  16. )
  17. print("input text: product")
  18. print(prompt.format(product="colorful socks"))
  19. chain = LLMChain(llm=llm, prompt=prompt)
  20. chain.run("colorful socks")
  21. # 导入一些tools,比如llm-math
  22. # llm-math是langchain里面的能做数学计算的模块
  23. tools = load_tools(["llm-math"], llm=llm)
  24. # 初始化tools,models 和使用的agent
  25. agent = initialize_agent(tools,
  26.                          llm,
  27.                          agent="zero-shot-react-description",
  28.                          verbose=True)
  29. text = "12 raised to the 3 power and result raised to 2 power?"
  30. print("input text: ", text)
  31. agent.run(text)
  32. # ConversationChain用法
  33. llm = OpenAI(temperature=0)
  34. # 将verbose设置为True,以便我们可以看到提示
  35. conversation = ConversationChain(llm=llm, verbose=True)
  36. print("input text: conversation")
  37. conversation.predict(input="Hi there!")
  38. conversation.predict(
  39.   input="I'm doing well! Just having a conversation with an AI.")

参考资料

https://note.com/npaka/n/n155e66a263a2

https://www.cnblogs.com/AudreyXu/p/17233964.html

https://github.com/hwchase17/langchain

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/369390
推荐阅读
相关标签
  

闽ICP备14008679号