赞
踩
在人工智能领域的不断发展中,语言模型扮演着重要的角色。特别是大型语言模型(LLM),如ChatGPT,已经成为科技领域的热门话题,并受到广泛认可。在这个背景下,LangChain作为一个以LLM模型为核心的开发框架出现,为自然语言处理开启了一个充满可能性的世界。借助LangChain,我们可以创建各种应用程序,包括聊天机器人和智能问答工具。
LangChain 的作者是Harrison Chase,最初是于2022年10月开源的一个项目,在 GitHub 上获得大量关注之后迅速转变为一家初创公司。2017 年Harrison Chase 还在哈佛上大学,如今已是硅谷的一家热门初创公司的 CEO,这对他来说是一次重大而迅速的跃迁。Insider独家报道,人工智能初创公司 LangChain在种子轮一周后,再次获得红杉领投的2000万至2500万美元融资,估值达到2亿美元。
LangChain目前是有两个语言版本(python和nodejs),从下图可以看出来,短短半年的时间该项目的python版本已经获得了54k+的star。nodejs版本也在短短4个月收货了7k+的star,这无疑利好前端同学,不需要会python也能快速上手LLM应用开发。 笔者认为Langchain作为一个大语言模型应用开发框架,解决了现在开发人工智能应用的一些切实痛点。以GPT模型为例:
LangChian作为一个大语言模型开发框架,是LLM应用架构的重要一环。那什么是LLM应用架构呢?其实就是指基于语言模型的应用程序设计和开发的架构。 LangChian可以将LLM模型、向量数据库、交互层Prompt、外部知识、外部工具整合到一起,进而可以自由构建LLM应用。
如上图,LangChain包含六部分组成,分别为:Models、Prompts、Indexes、Memory、Chains、Agents。
下面我们以具体示例分别阐述下Chat Modals, Embeddings, LLMs。
LangChain为使用聊天模型提供了一个标准接口。聊天模型是语言模型的一种变体。虽然聊天模型在内部使用语言模型,但它们所提供的接口略有不同。它们不是暴露一个 “输入文本,输出文本” 的API,而是提供了一个以 “聊天消息” 作为输入和输出的接口。 聊天模型的接口是基于消息而不是原始文本。LangChain 目前支持的消息类型有 AIMessage、HumanMessage、SystemMessage 和 ChatMessage,其中 ChatMessage 接受一个任意的角色参数。大多数情况下,您只需要处理 HumanMessage、AIMessage 和 SystemMessage。
# 导入OpenAI的聊天模型,及消息类型
from langchain.chat_models import ChatOpenAI
from langchain.schema import (
AIMessage,
HumanMessage,
SystemMessage
)
# 初始化聊天对象
chat = ChatOpenAI(openai_api_key="...")
# 向聊天模型发问
chat([HumanMessage(content="Translate this sentence from English to French: I love programming.")])
OpenAI聊天模式支持多个消息作为输入。这是一个系统和用户消息聊天模式的例子:
messages = [
SystemMessage(content="You are a helpful assistant that translates English to French."),
HumanMessage(content="I love programming.")
]
chat(messages)
当然也可以进行批量处理,批量输出。
batch_messages = [
[
SystemMessage(content="You are a helpful assistant that translates English to French."),
HumanMessage(content="I love programming.")
],
[
SystemMessage(content="You are a helpful assistant that translates English to French."),
HumanMessage(content="I love artificial intelligence.")
],
]
result = chat.generate(batch_messages)
result
上面介绍了聊天的角色处理以及如何进行批量处理消息。我们都知道向openAI调用接口都是要花钱的,如果用户问同一个问题,对结果进行了缓存,这样就可以减少接口的调用并且也能加快接口返回的速度。LangChain也很贴心的提供了缓存的功能。并且提供了两种缓存方案,内存缓存方案和数据库缓存方案,当然支持的数据库缓存方案有很多种。
# 导入聊天模型,SQLiteCache模块 import os os.environ["OPENAI_API_KEY"] = 'your apikey' import langchain from langchain.chat_models import ChatOpenAI from langchain.cache import SQLiteCache # 设置语言模型的缓存数据存储的地址 langchain.llm_cache = SQLiteCache(database_path=".langchain.db") # 加载 llm 模型 llm = ChatOpenAI() # 第一次向模型提问 result = llm.predict('tell me a joke') print(result) # 第二次向模型提问同样的问题 result2 = llm.predict('tell me a joke') print(result2)
另外聊天模式也提供了一种流媒体回应。这意味着,而不是等待整个响应返回,你就可以开始处理它尽快。
这个更多的是用于文档、文本或者大量数据的总结、问答场景,一般是和向量库一起使用,实现向量匹配。其实就是把文本等内容转成多维数组,可以后续进行相似性的计算和检索。他相比 fine-tuning 最大的优势就是,不用进行训练,并且可以实时添加新的内容,而不用加一次新的内容就训练一次,并且各方面成本要比 fine-tuning 低很多。 下面以代码展示下embeddings是什么。
# 导入os, 设置环境变量,导入OpenAI的嵌入模型 import os from langchain.embeddings.openai import OpenAIEmbeddings os.environ["OPENAI_API_KEY"] = 'your apikey' # 初始化嵌入模型 embeddings = OpenAIEmbeddings() # 把文本通过嵌入模型向量化 res = embeddings.embed_query('hello world') /* [ -0.004845875, 0.004899438, -0.016358767, -0.024475135, -0.017341806, 0.012571548, -0.019156644, 0.009036391, -0.010227379, -0.026945334, 0.022861943, 0.010321903, -0.023479493, -0.0066544134, 0.007977734, 0.0026371893, 0.025206111, -0.012048521, 0.012943339, 0.013094575, -0.010580265, -0.003509951, 0.004070787, 0.008639394, -0.020631202, -0.0019203906, 0.012161949, -0.019194454, 0.030373365, -0.031028723, 0.0036170771, -0.007813894, -0.0060778237, -0.017820721, 0.0048647798, -0.015640393, 0.001373733, -0.015552171, 0.019534737, -0.016169721, 0.007316074, 0.008273906, 0.011418369, -0.01390117, -0.033347685, 0.011248227, 0.0042503807, -0.012792102, -0.0014595914, 0.028356876, 0.025407761, 0.00076445413, -0.016308354, 0.017455231, -0.016396577, 0.008557475, -0.03312083, 0.031104341, 0.032389853, -0.02132437, 0.003324056, 0.0055610985, -0.0078012915, 0.006090427, 0.0062038545, ... 1466 more items ] */
下图是LangChain两种语言包支持的embeddings。
LLMS是LangChain的核心,从官网可以看到LangChain继承了非常多的大语言模型。
LangChain提供了PromptTemplates,允许你可以根据用户输入动态地更改提示,如果你有编程基础,这应该对你来说很简单。当用户需要输入多个类似的 prompt 时,生成一个 prompt 模板是一个很好的解决方案,可以节省用户的时间和精力。下面是一个示例,将 LLM 作为一个给新开商店命名的顾问,用户只需告诉 LLM 商店的主要特点,它将返回10个新开商店的名字。
from langchain.llms import OpenAI # 定义生成商店的方法 def generate_store_names(store_features): prompt_template = "我正在开一家新的商店,它的主要特点是{}。请帮我想出10个商店的名字。" prompt = prompt_template.format(store_features) llm = OpenAI() response = llm.generate(prompt, max_tokens=10, temperature=0.8) store_names = [gen[0].text.strip() for gen in response.generations] return store_names store_features = "时尚、创意、独特" store_names = generate_store_names(store_features) print(store_names)
这样,用户只需告诉 LLM 商店的主要特点,就可以获得10个新开商店的名字,而无需重复输入类似的 prompt 内容。另外[LangChainHub]包含了许多可以通过LangChain直接加载的Prompt Templates。顺便我们也可以通过学习他们的Prompt 设计来给我们以启发。
Few-shot examples是一组可用于帮助语言模型生成更好响应的示例。 要生成具有few-shot examples的prompt,可以使用FewShotPromptTemplate。该类接受一个PromptTemplate和一组few-shot examples。然后,它使用这些few-shot examples格式化prompt模板。 我们再看一个例子,需求是根据用户输入,让模型返回对应的反义词,我们要通过示例来告诉模型什么是反义词, 这就是few-shot examples(小样本提示)
import os os.environ["OPENAI_API_KEY"] = 'your apikey' from langchain import PromptTemplate, FewShotPromptTemplate from langchain.llms import OpenAI examples = [ {"word": "黑", "antonym": "白"}, {"word": "伤心", "antonym": "开心"}, ] example_template = """ 单词: {word} 反义词: {antonym}\\n """ # 创建提示词模版 example_prompt = PromptTemplate( input_variables=["word", "antonym"], template=example_template, ) # 创建小样本提示词模版 few_shot_prompt = FewShotPromptTemplate( examples=examples, example_prompt=example_prompt, prefix="给出每个单词的反义词", suffix="单词: {input}\\n反义词:", input_variables=["input"], example_separator="\\n", ) # 格式化小样本提示词 prompt_text = few_shot_prompt.format(input="粗") # 调用OpenAI llm = OpenAI(temperature=0.9) print(llm(prompt_text))
如果你有大量的示例,则可以使用ExampleSelector来选择最有信息量的一些示例,以帮助你生成更可能产生良好响应的提示。接下来,我们将使用LengthBasedExampleSelector,根据输入的长度选择示例。当你担心构造的提示将超过上下文窗口的长度时,此方法非常有用。对于较长的输入,它会选择包含较少示例的提示,而对于较短的输入,它会选择包含更多示例。 另外官方也提供了根据最大边际相关性、文法重叠、语义相似性来选择示例。
import os os.environ["OPENAI_API_KEY"] = 'your apikey' from langchain.prompts import PromptTemplate, FewShotPromptTemplate from langchain.prompts.example_selector import LengthBasedExampleSelector from langchain.prompts.example_selector import LengthBasedExampleSelector # These are a lot of examples of a pretend task of creating antonyms. examples = [ {"word": "happy", "antonym": "sad"}, {"word": "tall", "antonym": "short"}, {"word": "energetic", "antonym": "lethargic"}, {"word": "sunny", "antonym": "gloomy"}, {"word": "windy", "antonym": "calm"}, ] # 例子格式化模版 example_formatter_template = """ Word: {word} Antonym: {antonym}\n """ example_prompt = PromptTemplate( input_variables=["word", "antonym"], template=example_formatter_template, ) # 使用 LengthBasedExampleSelector来选择例子 example_selector = LengthBasedExampleSelector( examples=examples, example_prompt=example_prompt, # 最大长度 max_length=25, ) # 使用'example_selector'创建小样本提示词模版 dynamic_prompt = FewShotPromptTemplate( example_selector=example_selector, example_prompt=example_prompt, prefix="Give the antonym of every input", suffix="Word: {input}\nAntonym:", input_variables=["input"], example_separator="\n\n", ) longString = "big and huge and massive and large and gigantic and tall and much much much much much bigger than everything else" print(dynamic_prompt.format(input=longString))
索引是指对文档进行结构化的方法,以便LLM能够更好的与之交互。该组件主要包括:Document Loaders(文档加载器)、Text Splitters(文本拆分器)、VectorStores(向量存储器)以及Retrievers(检索器)。
指定源进行加载数据的。将特定格式的数据,转换为文本。如CSV、File Directory、HTML、 JSON、Markdown、PDF。另外使用相关接口处理本地知识,或者在线知识。如AirbyteJSON Airtable、Alibaba Cloud MaxCompute、wikipedia、BiliBili、GitHub、GitBook等等。
由于模型对输入的字符长度有限制,我们在碰到很长的文本时,需要把文本分割成多个小的文本片段。 文本分割最简单的方式是按照字符长度进行分割,但是这会带来很多问题,比如说如果文本是一段代码,一个函数被分割到两段之后就成了没有意义的字符,所以整体的原则是把语义相关的文本片段放在一起。 LangChain中最基本的文本分割器是CharacterTextSplitter ,它按照指定的分隔符(默认“\n\n”)进行分割,并且考虑文本片段的最大长度。我们看个例子:
from langchain.text_splitter import CharacterTextSplitter # 初始字符串 state_of_the_union = "..." text_splitter = CharacterTextSplitter( separator = "\\n\\n", chunk_size = 1000, chunk_overlap = 200, length_function = len, ) texts = text_splitter.create_documents([state_of_the_union])
除了CharacterTextSplitter 以外,LangChain还支持多个高级文本分割器,如下:
LatexTextSplitter | 沿着Latex标题、标题、枚举等分割文本。 |
---|---|
MarkdownTextSplitter | 沿着Markdown的标题、代码块或水平规则来分割文本。 |
NLTKTextSplitter | 使用NLTK的分割器 |
PythonCodeTextSplitter | 沿着Python类和方法的定义分割文本。 |
RecursiveCharacterTextSplitter | 用于通用文本的分割器。它以一个字符列表为参数,尽可能地把所有的段落(然后是句子,然后是单词)放在一起 |
SpacyTextSplitter | 使用Spacy的分割器 |
TokenTextSplitter | 根据openAI的token数进行分割 |
存储提取的文本向量,包括Faiss、Milvus、Pinecone、Chroma等。如下是LangChain集成的向量数据库。
VectorStore | 介绍 |
---|---|
AnalyticDB | 阿里云自主研发的云原生数据仓库 |
Annoy | 一个带有Python bindings的C ++库,用于搜索空间中给定查询点的近邻点。 |
AtlasDB | 一个非结构化数据集平台 |
Chroma | 一个开源嵌入式数据库 |
Deep Lake | 多模向量存储,可以存储嵌入及其元数据,包括文本、jsons、图像、音频、视频等。 |
DocArrayHnswSearch | 一个轻量级的文档索引实现 |
DocArrayInMemorySearch | 一个由Docarray提供的文档索引,将文档存储在内存中 |
ElasticSearch | ElasticSearch |
FAISS | Facebook AI相似性搜索服务 |
LanceDB | 一个用于向量搜索的开源数据库,它采用持久性存储 |
Milvus | 用于存储、索引和管理由深度神经网络和其他机器学习(ML)模型产生的大量嵌入向量的数据库 |
MyScale | 一个基于云的数据库,为人工智能应用和解决方案而优化 |
OpenSearch | 一个可扩展的、灵活的、可延伸的开源软件套件,用于搜索、分析和可观察性应用 |
PGVector | 一个用于Postgres的开源向量相似性搜索服务 |
Pinecone | 一个具有广泛功能的向量数据库 |
Qdrant | 一个向量相似性搜索引擎 |
Redis | 基于redis的检索器 |
SupabaseVectorStore | 一个开源的Firebase 替代品,提供一系列后端功能 |
Tair | 一个Key/Value结构数据的解决方案 |
Weaviate | 一个开源的向量搜索引擎 |
Zilliz | 数据处理和分析平台 |
检索器是一种便于模型查询的存储数据的方式,LangChain约定检索器组件至少有一个方法get_relevant_texts,这个方法接收查询字符串,返回一组文档。下面是一个简单的列子:
from langchain.chains import RetrievalQA from langchain.llms import OpenAI from langchain.document_loaders import TextLoader from langchain.indexes import VectorstoreIndexCreator loader = TextLoader('../state_of_the_union.txt', encoding='utf8') # 对加载的内容进行索引 index = VectorstoreIndexCreator().from_loaders([loader]) query = "What did the president say about Ketanji Brown Jackson" # 通过query的方式找到语义检索的结果 index.query(query)
链允许我们将多个组件组合在一起以创建一个单一的、连贯的任务。例如,我们可以创建一个链,它接受用户输入,使用 PromptTemplate 对其进行格式化,然后将格式化的响应传递给 LLM。另外我们也可以通过将多个链组合在一起,或者将链与其他组件组合来构建更复杂的链。
LLMChain 是一个简单的链,它围绕语言模型添加了一些功能。它在整个LangChain中广泛使用,包括在其他链和代理中。它接受一个提示模板,将其与用户输入进行格式化,并返回 LLM 的响应。
from langchain import PromptTemplate, OpenAI, LLMChain
prompt_template = "What is a good name for a company that makes {product}?"
llm = OpenAI(temperature=0)
llm_chain = LLMChain(
llm=llm,
prompt=PromptTemplate.from_template(prompt_template)
)
llm_chain("colorful socks")
除了所有Chain对象共享的__call__和run方法外,LLMChain还提供了一些调用得方法,如下是不同调用方法的说明.
llm_chain("corny", return_only_outputs=True)
{'text': 'Why did the tomato turn red? Because it saw the salad dressing!'}
llm_chain.run({"adjective": "corny"})
'Why did the tomato turn red? Because it saw the salad dressing!'
input_list = [
{"product": "socks"},
{"product": "computer"},
{"product": "shoes"}
]
llm_chain.apply(input_list)
[{'text': '\n\nSocktastic!'},
{'text': '\n\nTechCore Solutions.'},
{'text': '\n\nFootwear Factory.'}]
llm_chain.generate(input_list)
LLMResult(generations=[[Generation(text='\n\nSocktastic!', generation_info={'finish_reason': 'stop', 'logprobs': None})], [Generation(text='\n\nTechCore Solutions.', generation_info={'finish_reason': 'stop', 'logprobs': None})], [Generation(text='\n\nFootwear Factory.', generation_info={'finish_reason': 'stop', 'logprobs': None})]], llm_output={'token_usage': {'prompt_tokens': 36, 'total_tokens': 55, 'completion_tokens': 19}, 'model_name': 'text-davinci-003'})
# Single input example
llm_chain.predict(product="colorful socks")
顺序链的最简单形式,其中每个步骤都有一个单一的输入/输出,并且一个步骤的输出是下一步的输入。 如下就是将两个LLMChain进行组合成顺序链进行调用的案例。
from langchain.llms import OpenAI from langchain.chains import LLMChain from langchain.prompts import PromptTemplate from langchain.chains import SimpleSequentialChain # 定义第一个chain llm = OpenAI(temperature=.7) template = """You are a playwright. Given the title of play, it is your job to write a synopsis for that title. Title: {title} Playwright: This is a synopsis for the above play:""" prompt_template = PromptTemplate(input_variables=["title"], template=template) synopsis_chain = LLMChain(llm=llm, prompt=prompt_template) # 定义第二个chain llm = OpenAI(temperature=.7) template = """You are a play critic from the New York Times. Given the synopsis of play, it is your job to write a review for that play. Play Synopsis: {synopsis} Review from a New York Times play critic of the above play:""" prompt_template = PromptTemplate(input_variables=["synopsis"], template=template) review_chain = LLMChain(llm=llm, prompt=prompt_template) # 通过简单顺序链组合两个LLMChain overall_chain = SimpleSequentialChain(chains=[synopsis_chain, review_chain], verbose=True) # 执行顺序链 review = overall_chain.run("Tragedy at sunset on the beach")
相比SimpleSequentialChain只允许有单个输入输出,它是一种更通用的顺序链形式,允许多个输入/输出。 特别重要的是: 我们如何命名输入/输出变量名称。在上面的示例中,我们不必考虑这一点,因为我们只是将一个链的输出直接作为输入传递给下一个链,但在这里我们确实需要担心这一点,因为我们有多个输入。 第一个LLMChain:
# 这是一个 LLMChain,根据戏剧的标题和设定的时代,生成一个简介。
llm = OpenAI(temperature=.7)
template = """You are a playwright. Given the title of play and the era it is set in, it is your job to write a synopsis for that title.
# 这里定义了两个输入变量title和era,并定义一个输出变量:synopsis
Title: {title}
Era: {era}
Playwright: This is a synopsis for the above play:"""
prompt_template = PromptTemplate(input_variables=["title", "era"], template=template)
synopsis_chain = LLMChain(llm=llm, prompt=prompt_template, output_key="synopsis")
第二个LLMChain:
# 这是一个 LLMChain,根据剧情简介撰写一篇戏剧评论。
llm = OpenAI(temperature=.7)
template = """You are a play critic from the New York Times. Given the synopsis of play, it is your job to write a review for that play.
# 定义了一个输入变量:synopsis,输出变量:review
Play Synopsis:
{synopsis}
Review from a New York Times play critic of the above play:"""
prompt_template = PromptTemplate(input_variables=["synopsis"], template=template)
review_chain = LLMChain(llm=llm, prompt=prompt_template, output_key="review")
执行顺序链
overall_chain({"title":"Tragedy at sunset on the beach", "era": "Victorian England"})
执行结果,可以看到会把每一步的输出都能打印出来。
> Entering new SequentialChain chain...
> Finished chain.
{'title': 'Tragedy at sunset on the beach',
'era': 'Victorian England',
'synopsis': "xxxxxx",
'review': "xxxxxxx"}
转换链允许我们创建一个自定义的转换函数来处理输入,将处理后的结果用作下一个链的输入。如下示例我们将创建一个转换函数,它接受超长文本,将文本过滤为仅前 3 段,然后将其传递到 LLMChain 中以总结这些内容。
from langchain.chains import TransformChain, LLMChain, SimpleSequentialChain from langchain.llms import OpenAI from langchain.prompts import PromptTemplate # 模拟超长文本 with open("../../state_of_the_union.txt") as f: state_of_the_union = f.read() # 定义转换方法,入参和出参都是字典,取前三段 def transform_func(inputs: dict) -> dict: text = inputs["text"] shortened_text = "\n\n".join(text.split("\n\n")[:3]) return {"output_text": shortened_text} # 转换链:输入变量:text,输出变量:output_text transform_chain = TransformChain( input_variables=["text"], output_variables=["output_text"], transform=transform_func ) # prompt模板描述 template = """Summarize this text: {output_text} Summary:""" # prompt模板 prompt = PromptTemplate(input_variables=["output_text"], template=template) # llm链 llm_chain = LLMChain(llm=OpenAI(), prompt=prompt) # 使用顺序链 sequential_chain = SimpleSequentialChain(chains=[transform_chain, llm_chain]) # 开始执行 sequential_chain.run(state_of_the_union) # 结果 """ ' The speaker addresses the nation, noting that while last year they were kept apart due to COVID-19, this year they are together again. They are reminded that regardless of their political affiliations, they are all Americans.' """
熟悉openai的都知道,openai提供的聊天接口api,本身是不具备“记忆的”能力。如果想要使聊天具有记忆功能,则需要我们自行维护聊天记录,即每次把聊天记录发给gpt。具体过程如下 第一次发送
import openai
openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Hello"},
]
)
第二次发送就要带上我们第一次的记录即
import openai
openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Hello"},
{"role": "assistant", "content": "Hello, how can I help you?"},
{"role": "user", "content": "who is more stylish Pikachu or Neo"},
]
)
那如果我们一直聊天下去,发送的内容也越来越多,那很可能就碰到token的限制。聪明的同学会发现,其实我们只保留最近几次的聊天记录就可以了。没错,其实LangChain也是这样实现的,不过LangChain提供了更多的方法。 langchain提供了不同的Memory组件完成内容记忆,如下是目前提供的组件。
该组件类似我们上面的描述,只不过它会将聊天内容记录在内存中,而不需要每次再手动拼接聊天记录。
相比较第一个记忆组件,该组件增加了一个窗口参数,会保存最近看k论的聊天内容。
在内存中保留最近交互的缓冲区,并使用token长度而不是交互次数来确定何时刷新交互。
相比第一个记忆组件,该组件只会存储一个用户和机器人之间的聊天内容的摘要。
结合了上面两个思路,存储一个用户和机器人之间的聊天内容的摘要并使用token长度来确定何时刷新交互。
它是将所有之前的对话通过向量的方式存储到VectorDB(向量数据库)中,在每一轮新的对话中,会根据用户的输入信息,匹配向量数据库中最相似的K组对话。
一些应用程序需要根据用户输入灵活地调用LLM和其他工具的链。代理接口为这样的应用程序提供了灵活性。代理可以访问一套工具,并根据用户输入确定要使用哪些工具。我们可以简单的理解为他可以动态的帮我们选择和调用chain或者已有的工具。代理主要有两种类型Action agents和Plan-and-execute agents。
行为代理: 在每个时间步,使用所有先前动作的输出来决定下一个动作。下图展示了行为代理执行的流程。
预先决定完整的操作顺序,然后执行所有操作而不更新计划,下面是其流程。
LangChain 加载 OpenAI 的模型,并且完成一次问答。 先设置我们的 openai 的 key,然后,我们进行导入和执行。
# 导入os, 设置环境变量,导入OpenAI模型
import os
os.environ["OPENAI_API_KEY"] = '你的api key'
from langchain.llms import OpenAI
# 加载 OpenAI 模型,并指定模型名字
llm = OpenAI(model_name="text-davinci-003",max_tokens=1024)
# 向模型提问
result = llm("怎么评价人工智能")
为了实现我们的项目,我们需要使用 Serpapi 提供的 Google 搜索 API 接口。首先,我们需要在 Serpapi 官网上注册一个用户,并复制由 Serpapi 生成的 API 密钥。接下来,我们需要将这个 API 密钥设置为环境变量,就像我们之前设置 OpenAI API 密钥一样。
# 导入os, 设置环境变量
import os
os.environ["OPENAI_API_KEY"] = '你的api key'
os.environ["SERPAPI_API_KEY"] = '你的api key'
然后,开始编写我的代码。
# 导入加载工具、初始化代理、代理类型及OpenAI模型 from langchain.agents import load_tools from langchain.agents import initialize_agent from langchain.agents import AgentType from langchain.llms import OpenAI # 加载 OpenAI 模型 llm = OpenAI(temperature=0) # 加载 serpapi、语言模型的数学工具 tools = load_tools(["serpapi", "llm-math"], llm=llm) # 工具加载后都需要初始化,verbose 参数为 True,会打印全部的执行详情 agent = initialize_agent(tools, llm, agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION, verbose=True) # 执行代理 agent.run("今天是几号?历史上的今天发生了什么事情")
可以看到,正确的返回了日期(有时差),并且返回了历史上的今天。并且通过设置verbose这个参数为True,可以看到完整的 chain 执行过程。将我们的问题拆分成了几个步骤,然后一步一步得到最终的答案。
假如我们想要用 openai api 对一个段文本进行总结,我们通常的做法就是直接发给 api 让他总结。但是如果文本超过了 api 最大的 token 限制就会报错。这时,我们一般会进行对文章进行分段,比如通过 tiktoken 计算并分割,然后将各段发送给 api 进行总结,最后将各段的总结再进行一个全部的总结。 LangChain很好的帮我们处理了这个过程,使得我们编写代码变的非常简单。
# 导入os,设置环境变量。导入文本加载器、总结链、文本分割器及OpenAI模型 import os os.environ["OPENAI_API_KEY"] = '你的api key' from langchain.document_loaders import TextLoader from langchain.chains.summarize import load_summarize_chain from langchain.text_splitter import RecursiveCharacterTextSplitter from langchain import OpenAI # 获取当前脚本所在的目录 base_dir = os.path.dirname(os.path.abspath(__file__)) # 构建doc.txt文件的路径 doc_path = os.path.join(base_dir, 'static', 'open.txt') # 通过文本加载器加载文本 loader = TextLoader(doc_path) # 将文本转成 Document 对象 document = loader.load() # 初始化文本分割器 text_splitter = RecursiveCharacterTextSplitter( chunk_size = 800, chunk_overlap = 0 ) # 切分文本 split_documents = text_splitter.split_documents(document) # 加载 llm 模型 llm = OpenAI(model_name="text-davinci-003", max_tokens=1500) # 创建总结链 chain = load_summarize_chain(llm, chain_type="refine", verbose=True) # 执行总结链 chain.run(split_documents)
这里解释下文本分割器的 chunk_overlap 参数和chain 的 chain_type 参数。 chunk_overlap 是指切割后的每个 document 里包含几个上一个 document 结尾的内容,主要作用是为了增加每个 document 的上下文关联。比如,chunk_overlap=0时, 第一个 document 为 aaaaaa,第二个为 bbbbbb;当 chunk_overlap=2 时,第一个 document 为 aaaaaa,第二个为 aabbbbbb。 chain_type主要控制了将 document 传递给 llm 模型的方式,一共有 4 种方式: stuff: 这种最简单粗暴,会把所有的 document 一次全部传给 llm 模型进行总结。如果document很多的话,势必会报超出最大 token 限制的错,所以总结文本的时候一般不会选中这个。 map_reduce: 这个方式会先将每个 document 进行总结,最后将所有 document 总结出的结果再进行一次总结。 refine: 这种方式会先总结第一个 document,然后在将第一个 document 总结出的内容和第二个 document 一起发给 llm 模型在进行总结,以此类推。这种方式的好处就是在总结后一个 document 的时候,会带着前一个的 document 进行总结,给需要总结的 document 添加了上下文,增加了总结内容的连贯性。 map_rerank: 这种一般不会用在总结的 chain 上,而是会用在问答的 chain 上,他其实是一种搜索答案的匹配方式。首先你要给出一个问题,他会根据问题给每个 document 计算一个这个 document 能回答这个问题的概率分数,然后找到分数最高的那个 document ,在通过把这个 document 转化为问题的 prompt 的一部分(问题+document)发送给 llm 模型,最后 llm 模型返回具体答案。
通过这个可以很方便的做一个可以介绍公司业务的机器人,或是介绍一个产品的机器人。这里主要使用了Embedding(相关性)的能力。
导入os,设置环境变量。导入OpenAI嵌入模型、Chroma向量数据库、文本分割器、OpenAI模型、向量数据库数据查询模块及文件夹文档加载器 import os os.environ["OPENAI_API_KEY"] = '你的api key' from langchain.embeddings.openai import OpenAIEmbeddings from langchain.vectorstores import Chroma from langchain.text_splitter import CharacterTextSplitter from langchain import OpenAI,VectorDBQA from langchain.document_loaders import DirectoryLoader # 获取当前脚本所在的目录 base_dir = os.path.dirname(os.path.abspath(__file__)) # 构建doc.txt文件的路径 doc_Directory = os.path.join(base_dir, 'static') # 加载文件夹中的所有txt类型的文件 loader = DirectoryLoader(doc_Directory, glob='**/*.txt') # 将数据转成 document 对象,每个文件会作为一个 document documents = loader.load() # 初始化加载器 text_splitter = CharacterTextSplitter(chunk_size=100, chunk_overlap=0) # 切割加载的 document split_docs = text_splitter.split_documents(documents) # 初始化 openai 的 embeddings 对象 embeddings = OpenAIEmbeddings() # 将 document 通过 openai 的 embeddings 对象计算 embedding 向量信息并临时存入 Chroma 向量数据库,用于后续匹配查询 docsearch = Chroma.from_documents(split_docs, embeddings) # 创建问答对象 qa = VectorDBQA.from_chain_type(llm=OpenAI(), chain_type="stuff", vectorstore=docsearch,return_source_documents=True) # 进行问答 result = qa({"query": "一年收入是多少?"})
上图中成功的从我们的给到的数据中获取了正确的答案。
如何学习AI大模型?
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;
第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。