当前位置:   article > 正文

使用LangChain和Llama-Index实现多重检索RAG

使用LangChain和Llama-Index实现多重检索RAG

大家好,在信息检索的世界里,查询扩展技术正引领着一场效率革命。本文将介绍这一技术的核心多查询检索,以及其是如何在LangChain和Llama-Index中得到应用的。

1.查询扩展

查询扩展是一种信息检索技术,通过在原始查询的基础上增加相关或同义的词汇和短语来优化搜索结果。这种方法能够丰富查询的语义,提高检索系统的准确性和相关性。

在查询扩展的众多策略中,多查询检索是其中的一种。它通过生成多个相关的查询请求,从而拓宽搜索范围,帮助用户更全面地获取所需信息。这种技术尤其适用于处理复杂的查询需求,能够有效提高信息检索的效率和质量。

2.机制

系统在接到查询请求后,会先通过高级语言模型生成一个与原查询相近的新查询。这个新查询随后用于在Llama-Index中检索相关文档,从而获取与原查询高度相关的信息,增强上下文理解,确保结果更精准、更符合用户的实际需求。

图片

2次LLM交互:为精确生成查询,流程包括向大型语言模型(LLM)并行发出两次请求:初次使用gpt3模型,之后可能提升至gpt4或其他高级模型,以获取更丰富的查询结果。

3.实现方法

3.1 LangChain

  1. loader = UnstructuredPDFLoader(FILE_NAME)
  2. docs = loader.load()
  3. text_splitter = SentenceTransformersTokenTextSplitter()
  4. texts = text_splitter.split_documents(docs)
  5. emb = OpenAIEmbeddings(openai_api_key=openai.api_key)
  6. vec_db = Chroma.from_documents(documents=texts, embedding=emb)
  7. lc_model = ChatOpenAI(openai_api_key=openai.api_key, temperature=1.5)
  8. base_retriever = vec_db.as_retriever(k=K)
  9. final_retriever = MultiQueryRetriever.from_llm(base_retriever, lc_model)
  10. tmpl = """
  11. You are an assistant to answer a question from user with a context.
  12. Context:
  13. {context}
  14. Question:
  15. {question}
  16. The response should be presented as a list of key points, after creating the title of the content,
  17.     formatted in HTML with appropriate markup for clarity and organization.
  18. """
  19. prompt = ChatPromptTemplate.from_template(tmpl)
  20. chain = {"question": RunnablePassthrough(), "context": final_retriever} \
  21.         | prompt \
  22.         | lc_model \
  23.         | StrOutputParser() \
  24. result = chain.invoke("Waht is the doc talking about?")

MultiQueryRetriever 通过提供一套完整的类库,简化了任务执行过程。其核心机制是配备一个基础检索器,能够自动产生最多三个定制化的查询。这一过程中,检索操作的安全性和封装性得到了保障。

3.2 Llama-Index

实现Llama-Index颇具挑战,因为要求我们不仅要手动创建“生成的查询”,还得自行实现这些查询的检索流程。面对多个查询的需求,这里采用了必要的协程机制来确保过程的顺利进行。

  1. vector_index: BaseIndex = VectorStoreIndex.from_documents(
  2.     docs,
  3.     service_context=service_context, 
  4.     show_progress=True,
  5. )
  6. base_retriever = vector_index.as_retriever(similarity_top_k=K)
  7. class MultiQueriesRetriever(BaseRetriever):
  8.     def __init__(self, base_retriever: BaseRetriever, model:OpenAI):
  9.         self.template = PromptTemplate("""You are an AI language model assistant. Your task is to generate Five
  10.     different versions of the given user question to retrieve relevant documents from a vector
  11.     database. By generating multiple perspectives on the user question, your goal is to help
  12.     the user overcome some of the limitations of the distance-based similarity search.
  13.     Provide these alternative questions seperated by newlines.
  14.     Original question: {question}""")
  15.         self._retrievers = [base_retriever]
  16.         self.base_retriever = base_retriever
  17.         self.model = model
  18.     
  19.     def gen_queries(self, query) -> List[str]:
  20.         gen_queries_model = OpenAI(model="gpt-3-turbo", temperature=1.5)
  21.         prompt = self.template.format(question=query)
  22.         res = self.model.complete(prompt)
  23.         return res.text.split("\n")
  24.     async def run_gen_queries(self,generated_queries: List[str]) -> List[NodeWithScore]:
  25.         tasks = list(map(lambda q: self.base_retriever.aretrieve(q), generated_queries)) 
  26.         res = await tqdm.gather(*tasks)
  27.         return res[0]
  28.     def _retrieve(self, query_bundle: QueryBundle) -> List[NodeWithScore]:
  29.         return list()
  30.     async def _aretrieve(self, query_bundle: QueryBundle) -> List[NodeWithScore]:
  31.         query = query_bundle.query_str
  32.         generated_queries = self.gen_queries(query)
  33.         query_res = await self.run_gen_queries(generated_queries)
  34.         return query_res
  35.     
  36. mr = MultiQueriesRetriever(base_retriever, li_model)
  37. final_res = await RetrieverQueryEngine(mr).aquery(query_text)

重要的是通过继承BaseRetriever类,将其功能与基础检索器相融合,以便根据生成的查询来检索相应的信息。由于这些生成的查询是通过协程机制来实现的,因此需要对_aretrieve方法进行重写。这部分内容就不再展开详细说明了。

3.3 子问题查询引擎

Llama-Index包含一个名为SubQuestionQueryEngine的类,它基本上能够满足我们的需求。这个类的特点是将复杂查询分解成多个子问题,而不是创建一个与原查询“相似”的新查询。根据文档说明,可以通过以下代码来使用这个类:

  1. query_engine_tools = [
  2.     QueryEngineTool(
  3.         query_engine=vector_query_engine,
  4.         metadata=ToolMetadata(
  5.             name="pg_essay",
  6.             description="Paul Graham essay on What I Worked On",
  7.         ),
  8.     ),
  9. ]
  10. query_engine = SubQuestionQueryEngine.from_defaults(
  11.     query_engine_tools=query_engine_tools,
  12.     use_async=True,
  13. )
  14. response = query_engine.query(
  15.     "How was Paul Grahams life different before, during, and after YC?"
  16. )

SubQuestionQueryEngine的工作原理是将复杂的原始查询拆分成多个子问题,每个子问题都针对特定的数据源。这些子问题的答案不仅提供了必要的上下文信息,还为构建最终答案做出了贡献。每个子问题专门设计用来从相应的数据源中抽取关键信息。综合这些子问题的答案,可以得到对原始查询的完整回应。

此外,SubQuestionQueryEngine能够将一个复杂的查询细化为多个子问题,并为每个子问题指定相应的查询引擎进行处理。一旦所有子问题都得到解答,这些答案将被汇总并传递给响应合成器,以生成最终的答案。SubQuestionQueryEngine根据SubQuestion中的tool_name属性来确定应该使用哪个QueryEngineTool来处理每个子问题。

本文内容由网友自发贡献,转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/481799
推荐阅读
相关标签
  

闽ICP备14008679号