赞
踩
前言
你可能听说过,最近几个月出现了很多人工智能的应用程序。你可能也在用一些这样的应用。
比如ChatPDF和CustomGPT AI这些AI工具,它们可以帮我们省去很多麻烦,我们不用再翻来覆去地看文档,就能找到想要的答案。它们让AI为我们做了很多工作。
那么,开发这些工具的人是怎么做到的呢?其实,他们都用了一个叫LangChain的开源框架。
01
LangChain是一个专门为LLM应用开发设计的框架,旨在简化LLM应用的开发难度。它将LLM的各个组件进行封装和链接,提供了一个统一的开发环境,让开发者可以更加便捷地进行LLM应用的开发。从某种程度上来说,LangChain类似于Java开发中的Spring或SpringBoot框架,为开发者提供了丰富的工具和库,帮助开发者快速构建出功能强大的LLM应用。
模块化设计:LangChain框架采用了模块化设计,将LLM应用的各个组件拆分成独立的模块,方便开发者进行模块化的开发和维护。
易用性强:LangChain框架提供了丰富的API和文档,让开发者可以更加便捷地进行LLM应用的开发。同时,框架还提供了详细的教程和示例代码,帮助新手快速入门。
高性能:LangChain框架在底层进行了优化,保证了LLM应用的高性能。开发者可以在保证性能的前提下,更加专注于业务逻辑的实现。
02
你可能觉得LangChain听起来很复杂,但其实它很容易上手。
简单来说,LangChain就是把大量的数据组合起来,让LLM能够尽可能少地消耗计算力就能轻松地引用。它的工作原理是把一个大的数据源,比如一个50页的PDF文件,分成一块一块的,然后把它们嵌入到一个向量存储(Vector Store)里。
创建向量存储的简单示意图
现在我们有了大文档的向量化表示,我们就可以用它和LLM一起工作,只检索我们需要引用的信息,来创建一个提示-完成(prompt-completion)对。
当我们把一个提示输入到我们新的聊天机器人里,LangChain就会在向量存储里查询相关的信息。你可以把它想象成一个专门为你的文档服务的小型谷歌。一旦找到了相关的信息,我们就用它和提示一起喂给LLM,生成我们的答案。
LangChain 如何与 OpenAI 的 LLM 合作
LangChain还可以让你创建一些可以执行动作的应用程序,比如上网、发邮件、完成其他API相关的任务。你可以看看AgentGPT,这是一个很好的例子。
这样的应用程序有很多可能的用途,这里只是我随便想到的一些:
个人AI邮件助手
AI学习伙伴
AI数据分析
定制公司客服聊天机器人
社交媒体内容创作助手
这样的案例还有更多。
03
LangChain框架
**LangChain 是一个开发由语言模型驱动的应用程序的框架。**LangChain 由前 Robust Intelligence 的机器学习工程师 Chase Harrison 在 22 年 10 月底推出,是一个封装了大量大语言模型(LLM) 应用开发逻辑和工具集成的开源 Python 库,提供了标准的模块化组件,集成了不同的大语言模 型并将其进行整合,并将它们连接到各种外部数据源和 API。
22 年 11 月初,Hacker News 上 “如何入门 AI”的帖子回复中,LangChain 第一次被列进 AI 入门套装; 在 23 年 1 月的 AI Hackathon 决赛中,有大量项目使用了 LangChain。LangChain 在 Github 上的星数迅速破万,成 为 LLM 应用开发者选择中间件时的优先选择。
**大模型本身存在应用局限,LangChain 可以加快基于大模型的应用构建速度。**以 ChatGPT 为例, 其训练数据只截至 2021 年底,无法实时获取外部信息,同时通用大模型仅训练了公开的数据知 识,对于一些较为专业的问题大模型会给出胡说八道的答案。目前这些缺陷都可以通过外接 API 的方式来进行改善,比如 OpenAI 官方给出了 Plugin 让 ChatGPT 可以接入互联网,用向量数据库 作为知识库对 prompt 进行处理后再对大模型进行提问等。
LangChain 为开发者们提供了方便,它 封装好了大量的 API 相关逻辑和代码实现,开发者们可以直接调用,大大加快了构建一个应用的 速度。有了 LangChain,做一个基于公司内部文档的问答机器人通常只需要两天,而直接 fork 别 人基于 LangChain 的代码构建个人的 Notion 问答机器人则只需要几个小时。
**针对大模型应用上的不足,LangChain 提供模块化组件进行优化。**针对通用大模型难以获取外部 信息、无法保存上下文记忆等不足,LangChain 提供了多个组件模块:
**Model:**Model 模块主要包含了大语言模型(LLM),借助 LangChain,与 LLM 的交互将变 得更加便捷,LangChain 提供的接口和功能有助于将 LLM 的强大能力轻松集成到工作应用 程序中。LangChain 还提供异步支持,能够满足同时并发调用多个 LLM 的场景,最大限度 地提高资源利用率。LangChain 还支持编写自定义的 LLM 包装器,而不仅限于 LangChain 所支持的模型。
**Prompt:**prompt 是向 LLM 提供的输入,LangChain 提供了完备的管理和优化 prompt 的功 能。最基础的功能是 prompt template(提示模板),模板指的是我们希望获得答案的具体 格式或蓝图。LangChain 支持通过提示模板单独定义 prompt 的输入输出格式,其输出解析 器可以将 LLM 的输出解析为所需要的格式。
**Chain:**Chain(链)提供了将各种组件合并成一个统一应用程序的方式,通过链式结构可 以实现多个模型的序列调用,也能集成提示模板对用户输入进行格式化。LangChain 提供了 多种基础链式结构,包含简单的单向序列 SimpleSequentialChain、可以让 LLM 查询 API 的 API Chain、图谱检索查询的 GraphQAChain 等。通过将多个 Chain 与其他组件集成,可以 生成更复杂的链式结构。
ChatGPT Plugin 和 LangChain 并非竞争关系,LangChain 已支持直接调用 ChatGPT Plugin。 随着 ChatGPT 公布其 Plugin 插件生态,部分开发者认为 LangChain 的价值会被插件直接取代, 但 LangChain 和插件并非竞争关系,LangChain 在插件推出后两天就更新了在 LangChain 抽象下 的 Plugin 实现。
目前 ChatGPT 的插件生态仍处于非常早期阶段,插件数量不多,用户数量也只 有几十万量级,插件本身的 UI 也非常粗糙,难以拥有统一的产品体验。LangChain 在复杂的 2B 应用场景中仍具有显著的价值,在底层大模型和上层应用之间提供一层对业务复杂逻辑的抽象, 满足复杂业务快速部署的需求。例如Langchain的Agent和Memory两个功能模块,现有的plugin 不具备这样的能力。
04
1、AI应用开发步骤
环境搭建:首先,开发者需要安装LangChain框架所需的环境,包括Python、PyTorch等依赖库。然后,按照官方文档的指引,进行框架的安装和配置。
模型选择:根据具体的应用场景,开发者需要选择合适的LLM模型。LangChain框架支持多种主流LLM模型,如GPT、BERT等。开发者可以根据自己的需求选择合适的模型进行开发。
模型训练与调优:在选择了合适的模型后,开发者需要进行模型的训练和调优。LangChain框架提供了丰富的工具和库,帮助开发者进行模型的训练、评估和调优。通过不断地调整模型参数和策略,开发者可以得到更加优秀的LLM模型。
应用开发:在模型训练和调优完成后,开发者可以开始进行LLM应用的开发。LangChain框架提供了丰富的API和工具,让开发者可以更加便捷地实现各种LLM应用的功能。同时,框架还提供了详细的教程和示例代码,帮助新手快速入门。
2、LangChain应用实战
一个LangChain应用程序由5个主要部分组成:
模型(LLM包装器)
提示
链
嵌入和向量存储
代理
我会给你分别来介绍每个部分,让你能够对LangChain的工作原理有一个高层次的理解。接下来,你应该能够运用这些概念,开始设计你自己的用例和创建你自己的应用程序。
接下来我会用Rabbitmetrics(Github)的一些简短的代码片段来进行介绍。他提供了有关此主题的精彩教程。这些代码片段应该能让你准备好使用LangChain。
首先,让我们设置我们的环境。你可以用pip安装3个你需要的库:
`pip install -r requirements.txt python-dotenv==1.0.0 langchain==0.0.137 pinecone-client==2.2.1`
Pinecone是我们将要和LangChain一起使用的向量存储(Vector Store)。在这里,你要把你的OpenAI、Pinecone环境和Pinecone API的API密钥存储到你的环境配置文件里。你可以在它们各自的网站上找到这些信息。然后我们就用下面的代码来加载那个环境文件:
现在,我们准备好开始了!
`# 加载环境变量 from dotenv import loaddotenv,finddotenv loaddotenv(finddotenv())`
为了和我们的LLM交互,我们要实例化一个OpenAI的GPT模型的包装器。在这里,我们要用OpenAI的GPT-3.5-turbo,因为它是最划算的。但是如果你有权限,你可以随意使用更强大的GPT4。
要导入这些,我们可以用下面的代码:
`# 为了查询聊天模型GPT-3.5-turbo或GPT-4,导入聊天消息和ChatOpenAI的模式(schema)。 from langchain.schema import ( AIMessage, HumanMessage, SystemMessage ) from langchain.chat_models import ChatOpenAI chat = ChatOpenAI(model_name="gpt-3.5-turbo",temperature=0.3) messages = [ SystemMessage(content="你是一个专业的数据科学家"), HumanMessage(content="写一个Python脚本,用模拟数据训练一个神经网络") ] response=chat(messages) print(response.content,end='\n')`
实际上,SystemMessage为GPT-3.5-turbo模块提供了每个提示-完成对的上下文信息。HumanMessage是指您在ChatGPT界面中输入的内容,也就是您的提示。
但是对于一个自定义知识的聊天机器人,我们通常会将提示中重复的部分抽象出来。例如,如果我要创建一个推特生成器应用程序,我不想一直输入“给我写一条关于…的推特”。
因此,让我们来看看如何使用提示模板(PromptTemplates)来将这些内容抽象出来。
LangChain提供了PromptTemplates,允许你可以根据用户输入动态地更改提示,类似于正则表达式(regex)的用法。
`# 导入提示并定义PromptTemplate from langchain import PromptTemplate template = """ 您是一位专业的数据科学家,擅长构建深度学习模型。 用几行话解释{concept}的概念 """ prompt = PromptTemplate( input_variables=["concept"], template=template, ) # 用PromptTemplate运行LLM llm(prompt.format(concept="autoencoder")) llm(prompt.format(concept="regularization"))`
你可以用不同的方式来改变这些提示模板,让它们适合你的应用场景。如果你熟练使用ChatGPT,这应该对你来说很简单。
链可以让你在简单的提示模板上面构建功能。本质上,链就像复合函数,让你可以把你的提示模板和LLM结合起来。
使用之前的包装器和提示模板,我们可以用一个单一的链来运行相同的提示,它接受一个提示模板,并把它和一个LLM组合起来:
`# 导入LLMChain并定义一个链,用语言模型和提示作为参数。 from langchain.chains import LLMChain chain = LLMChain(llm=llm, prompt=prompt) # 只指定输入变量来运行链。 print(chain.run("autoencoder"))`
除此之外,顾名思义,我们还可以把这些链连起来,创建更大的组合。
比如,我可以把一个链的结果传递给另一个链。在这个代码片段里,Rabbitmetrics把第一个链的完成结果传递给第二个链,让它用500字向一个五岁的孩子解释。
你可以把这些链组合成一个更大的链,然后运行它。
`# 定义一个第二个提示 second_prompt = PromptTemplate( input_variables=["ml_concept"], template="把{ml_concept}的概念描述转换成用500字向我解释,就像我是一个五岁的孩子一样", ) chain_two = LLMChain(llm=llm, prompt=second_prompt) # 用上面的两个链定义一个顺序链:第二个链把第一个链的输出作为输入 from langchain.chains import SimpleSequentialChain overall_chain = SimpleSequentialChain(chains=[chain, chain_two], verbose=True) # 只指定第一个链的输入变量来运行链。 explanation = overall_chain.run("autoencoder") print(explanation)`
有了链,你可以创建很多功能,这就是LangChain功能强大的原因。但是它真正发挥作用的地方是和前面提到的向量存储一起使用。接下来我们开始介绍一下这个部分。
这里我们将结合LangChain进行自定义数据存储。如前所述,嵌入和向量存储的思想是把大数据分成小块,并存储起来。
LangChain有一个文本分割函数来做这个:
`# 导入分割文本的工具,并把上面给出的解释分成文档块 from langchain.text_splitter import RecursiveCharacterTextSplitter text_splitter = RecursiveCharacterTextSplitter( chunk_size = 100, chunk_overlap = 0, ) texts = text_splitter.create_documents([explanation])`
分割文本需要两个参数:每个块有多大(chunk_size)和每个块有多少重叠(chunk_overlap)。让每个块之间有重叠是很重要的,可以帮助识别相关的相邻块。
每个块都可以这样获取:
`texts[0].page_content`
在我们有了这些块之后,我们需要把它们变成嵌入。这样向量存储就能在查询时找到并返回每个块。我们将使用OpenAI的嵌入模型来做这个。
`# 导入并实例化 OpenAI embeddings from langchain.embeddings import OpenAIEmbeddings embeddings = OpenAIEmbeddings(model_name="ada") # 用嵌入把第一个文本块变成一个向量 query_result = embeddings.embed_query(texts[0].page_content) print(query_result)`
最后,我们需要有一个地方来存储这些向量化的嵌入。如前所述,我们将使用Pinecone来做这个。使用之前环境文件里的API密钥,我们可以初始化Pinecone来存储我们的嵌入。
`# 导入并初始化Pinecone客户端 import os import pinecone from langchain.vectorstores import Pinecone pinecone.init( api_key=os.getenv('PINECONE_API_KEY'), environment=os.getenv('PINECONE_ENV') ) # 上传向量到Pinecone index_name = "langchain-quickstart" search = Pinecone.from_documents(texts, embeddings, index_name=index_name) # 做一个简单的向量相似度搜索 query = "What is magical about an autoencoder?" result = search.similarity_search(query) print(result)`
现在我们能够从我们的Pinecone向量存储里查询相关的信息了!剩下要做的就是把我们学到的东西结合起来,创建我们特定的用例,给我们一个专门的AI“代理”。
一个智能代理就是一个能够自主行动的AI,它可以根据输入,依次完成一系列的任务,直到达成最终的目标。这就意味着我们的AI可以利用其他的API,来实现一些功能,比如发送邮件或做数学题。如果我们再加上我们的LLM+提示链,我们就可以打造出一个适合我们需求的AI应用程序。
这部分的原理可能有点复杂,所以让我们来看一个简单的例子,来演示如何用LangChain中的一个Python代理来解决一个简单的数学问题。这个代理是通过调用我们的LLM来执行Python代码,并用NumPy来求解方程的根:
`# 导入Python REPL工具并实例化Python代理 from langchain.agents.agent_toolkits import create_python_agent from langchain.tools.python.tool import PythonREPLTool from langchain.python import PythonREPL from langchain.llms.openai import OpenAI agent_executor = create_python_agent( llm=OpenAI(temperature=0, max_tokens=1000), tool=PythonREPLTool(), verbose=True ) # 执行Python代理 agent_executor.run("找到二次函数3 * x ** 2 + 2 * x - 1的根(零点)。")`
一个定制知识的聊天机器人,其实就是一个能够把问题和动作串起来的智能代理。它会把问题发送给向量化存储,然后把得到的结果和原来的问题结合起来,给出答案
05
以下是四种框架(LangChain, LlamaIndex, Haystack, Hugging Face)的详细解释,包括它们的优势、劣势和理想用例,以帮助您选择适合您的生成式AI应用的正确框架:
|
框架
|
优势
|
劣势
|
理想用例
|
| — | — | — | — |
|
LangChain
|
- 灵活性和扩展性高
- 可扩展性强
- 开源
|
- 学习曲线较陡
- 用户界面不够友好
|
- 研究项目
- 高性能应用
|
|
LlamaIndex
|
- 搜索和检索效率高
- 易用性好
- 与Hugging Face无缝集成
- 开源
|
- 功能有限
- 黑箱性质
|
- 信息检索
- 个性化内容生成
|
|
Haystack
|
- 全面的NLP流水线
- 灵活性和定制性
- 开源和社区驱动
|
- 设置更复杂
- 资源密集型
|
- 信息提取
- 问题回答
- 情感分析
|
|
Hugging Face
|
- 丰富的模型库
- 用户友好平台
- 协作开发
- 开源
|
- 功能有限
- 成本
|
- 模型训练和微调
- 模型评估和比较
- 协作研究
|
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
保证100%免费
】Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。