赞
踩
PDF 文件通常包含其他来源无法获取的重要非结构化数据。它们可能非常长,而且与纯文本文件不同,通常无法直接输入到语言模型的提示中。
在本中,我们将创建一个可以回答有关 PDF 文件的问题的系统。更具体地说,就是使用文档加载器加载 LLM 可以使用的格式的文本,然后构建检索增强生成 (RAG) 管道来回答问题,包括来自源材料的引文。
首先,您需要选择要加载的 PDF。我们将使用 Python基础学习 文档。它长达 197 页,包含一些关键数据和较长的说明性文字。不过,您可以随意使用您选择的 PDF。
选择 PDF 后,下一步是将其加载为 LLM 更容易处理的格式,因为 LLM 通常需要文本输入。LangChain 内置有几个不同的文档加载器可用于文档转化文本,您可以尝试使用。下面,我们将使用一个由包提供支持的pypdf从文件路径读取的加载器:
%pip install -qU pypdf langchain_community
%pip install faiss-cpu
- from langchain_community.document_loaders import PyPDFLoader
-
- file_path = "PythonBase.pdf"
- loader = PyPDFLoader(file_path)
-
- docs = loader.load()
-
- print(len(docs))
- print(docs[0].page_content[0:100])
- print(docs[0].metadata)
打印结果可以看出,能够正常的将pdf文档内容读取,这里的 PythonBase.pdf 替换成你们自己的pdf文档,放到跟代码同一目录下,即可正常读取到。
1)加载器将指定路径下的PDF读入内存。
2)然后它使用该包提取文本数据pypdf。
3)最后,它为 PDF 的每一页创建一个 LangChain文档,其中包含页面的内容以及有关文本来源位置的一些元数据。
接下来,我们将已加载的文档进行处理,以供稍后检索。在此使用文本分割器,把已加载的文档分割成更小的文档,以便更容易地放入 LLM 的上下文窗口,然后将它们加载到向量存储中。然后,从向量存储中创建一个检索器,以在我们的 RAG 链中使用:
LangChain支持许多不同的语言模型,包含:OpenAI、Anthropic、Azure、Google、Cohere、FireworksAI、Groq、MistralAI、TogetherAI等,您可以互换使用 ,选择您要使用的语言模型!
1)下面内容将居于OpenAI语言模型进行演示:
pip install -qU langchain-openai
2)配置API KEY环境
- import os
- os.environ["OPENAI_API_KEY"]="填写自己的API KEY"
- os.environ["LANGCHAIN_TRACING_V2"]="true"
- os.environ["LANGCHAIN_API_KEY"]="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"
- from langchain_openai import ChatOpenAI
-
- model = ChatOpenAI(model="gpt-4")
- from langchain_openai import OpenAIEmbeddings
- from langchain_text_splitters import RecursiveCharacterTextSplitter
- from langchain_community.vectorstores import FAISS
-
- text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=200)
- splits = text_splitter.split_documents(docs)
-
- #向量化
- vector = FAISS.from_documents(splits, OpenAIEmbeddings())
- retriever = vector.as_retriever()
rag_chain
- from langchain.chains import create_retrieval_chain
- from langchain.chains.combine_documents import create_stuff_documents_chain
- from langchain_core.prompts import ChatPromptTemplate
-
- system_prompt = (
- "你是问答任务的助理,使用以下检索到的上下文来回答问题。如果你不知道答案,就说你不知道。最多使用三句话,并保持回答简明扼要。"
- "\n\n"
- "{context}"
- )
-
- prompt = ChatPromptTemplate.from_messages(
- [
- ("system", system_prompt),
- ("human", "{input}"),
- ]
- )
-
-
- question_answer_chain = create_stuff_documents_chain(model, prompt)
- rag_chain = create_retrieval_chain(retriever, question_answer_chain)
-
- results = rag_chain.invoke({"input": "介绍一下python"})
-
- results
answer 中你可以看到,在 results 中获得了最终答案,并且 context 获得了用于生成答案的 LLM。
检查 context 数据,您可以看到它们是每个包含一部分提取的页面内容的文档。有用的是,这些文档还保留了第一次加载时的原始元数据。在 metadata 中还可以看到文档来源和页码。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。