当前位置:   article > 正文

基于LangChain的Prompt模板_langchain prompt 封装

langchain prompt 封装

1. 简述LangChain

LangChain是一个开源库,它致力于让开发基于LLM的AI应用更简单,它是一个AI开发领域的万能适配器。

它抽象化了与大语言模型(如OpenAI模型、文心模型等等)交互的复杂性,以及集成了周边的各种工具生态,让开发者可以专注于实现AI应用的逻辑和功能。LangChain提供了一系列易于使用的工具和抽象,使得与大语言模型的交互变得尽可能的简单明了。

使用之前,先安装LangChain:

pip install langchain

2. LangChain使用OpenAI模型

LangChain与各种AI大模型都做了适配,下面以OpenAI的模型为例,可以简单地通过LangChain来调用它。当然国内使用原生的OpenAI会有些障碍,本文主要使用代理模式,比如https://api.aigc369.com/v1

2.1、使用OpenAI的接口

  1. from openai import OpenAI
  2. # 实例化OpenAI模型
  3. client = OpenAI(api_key="sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
  4. base_url="https://api.aigc369.com/v1")
  5. # 使用LangChain的接口与模型交互
  6. messages = [
  7. {
  8. "role": "system",
  9. "content": "请你作为我的生活小助手。"
  10. },
  11. {
  12. "role": "user",
  13. "content": "胳膊上起了红疹子怎么办?"
  14. }
  15. ]
  16. response = client.chat.completions.create(
  17. model="gpt-3.5-turbo",
  18. messages= messages
  19. )
  20. content = response.choices[0].message.content
  21. print(content)

2.2、使用LangChain的接口调用OpenAI的模型

  1. from langchain_openai import ChatOpenAI
  2. # 实例化OpenAI模型
  3. model = ChatOpenAI(model="gpt-3.5-turbo",
  4. openai_api_key="sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
  5. openai_api_base="https://api.aigc369.com/v1")
  6. # 使用LangChain的接口与模型交互
  7. from langchain.schema.messages import HumanMessage, SystemMessage, AIMessage
  8. messages = [
  9. SystemMessage(content="请你作为我的生活小助手。"),
  10. HumanMessage(content="胳膊上起了红疹子怎么办?"),
  11. ]
  12. response = model.invoke(messages)
  13. print(response.content)

3. 什么是提示词模板

在上一篇《Prompt提示词助力AI写作》里已经聊过Prompt提示词的概念,提示词的主要作用是为了更好的与AI对话,帮助引导AI产生更精确、更相关的文本。所以要尽可能的给AI讲清楚任务、背景、任务等核心要素。

**那Prompt提示词模板是啥呢?**Prompt提示词模板是在LangChain中使用,LangChain 中通过提示模板来构建最终的 Prompt。提示模板是 LangChain 的核心功能之一。

4. 怎么使用提示词模板

设想一下,如果你想让AI帮你把一段中文翻译成多种语言。那你可能要写多条类似的提示词,让AI一个个的去执行任务。或者你想让AI帮你批量的生成一些固定的邮件,只是中间的人名不同,你肯定也不想写多条类似的提示词。

此时使用提示词模板是最合适的。接下来举个例子,让AI将中文按照我们的要求翻译成多种语言:

  1. from langchain_openai import ChatOpenAI
  2. from langchain.prompts import (
  3. SystemMessagePromptTemplate,
  4. AIMessagePromptTemplate,
  5. HumanMessagePromptTemplate,
  6. )
  7. system_template_text = "你是一位专业的翻译,能够将{input_language}翻译成{output_language}。请只输出翻译后的文本,不要有任何其它内容。"
  8. system_prompt_template = SystemMessagePromptTemplate.from_template(system_template_text)
  9. human_template_text = "文本:{text}"
  10. human_prompt_template = HumanMessagePromptTemplate.from_template(human_template_text)
  11. model = ChatOpenAI(model="gpt-3.5-turbo",
  12. openai_api_key="sk-BuQK7SGbqCZP2i2z7fF267AeD0004eF095AbC78d2f79E019",
  13. openai_api_base="https://api.aigc369.com/v1")
  14. prompt_input_variables = [
  15. {
  16. "input_language": "中文",
  17. "output_language": "英语",
  18. "text": "我今天去超级买衣服",
  19. },
  20. {
  21. "input_language": "中文",
  22. "output_language": "法语",
  23. "text": "我今天去超级买衣服",
  24. },
  25. {
  26. "input_language": "中文",
  27. "output_language": "俄语",
  28. "text": "我今天去超级买衣服",
  29. },
  30. {
  31. "input_language": "中文",
  32. "output_language": "日语",
  33. "text": "我今天去超级买衣服",
  34. },
  35. {
  36. "input_language": "中文",
  37. "output_language": "韩语",
  38. "text": "我今天去超级买衣服",
  39. },
  40. {
  41. "input_language": "中文",
  42. "output_language": "意大利语",
  43. "text": "我今天去超级买衣服",
  44. }
  45. ]
  46. for input in prompt_input_variables:
  47. response = model.invoke([
  48. system_prompt_template.format(input_language=input["input_language"], output_language=input["output_language"]),
  49. human_prompt_template.format(text=input["text"])])
  50. print(response.content)

SystemMessagePromptTemplate代码系统模板,HumanMessagePromptTemplate代表是用户消息模板。{input_language}{output_language}{text}是变量,最终通过format方法,替换成实际的值来生成最终的Prompt。最终使用LangChain的大模型类执行Prompt即可。

执行结果如下:

5. 什么是LangChainHub

如果碰到复杂场景,需要模型接入各种工具时,就要写复杂的提示词了,比如类似这样这个链接里的提示词模板。这么复杂的提示词写起来就有点尴尬了,幸好有LangChainHub。LangSmith

LangChainHub 是一个围绕 LangChain 生态系统构建的平台。它能够让开发者更轻松地发现、分享和利用其他人创建的工作流、模板和组件。它相当于是一个丰富的社区资源库。

在 LangChainHub,你可以找到:

  • 提示词模板库:这些模板可以帮助你快速开始一个特定任务,比如生成特定格式的文本,或者进行一些复杂的逻辑处理。
  • 可重复使用的流程:如果你有常见的工作流,你可以在LangChainHub上找到现成的流程,或者将你的工作流分享给社区。
  • 最佳实践的共享:在 LangChainHub 上,开发者可以分享他们的经验教训和解决方案,帮助其他开发者避坑。

比如,从 LangChainHub 寻找某个功能的提示词模板,可以直接这样搞:

  1. from langchain import hub
  2. prompt = hub.pull("hwchase17/structured-chat-agent")
  3. print(prompt)

后续再继续详聊LangChainHub。

总结

本文主要聊了LangChain,还聊了如何使用LangChain与OpenAI模型进行提示词模板的交互。希望对你有帮助。

======>>>>>> 关于我 <<<<<<======

本篇完结!欢迎点赞 关注 收藏!!!

原文链接:基于LangChain的Prompt模板 - 程序员半支烟基于LangChain的Prompt模板

声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号