当前位置:   article > 正文

llamaindex结合本地模型构建RAG

llamaindex结合本地模型

总结一下对llamaindex的使用心得,第一部分是构建知识库并持久化,第二部分是使用本地llm模型和本地embed模型,第三部分是对qurey engine和chat engine的使用(自定义prompt)。

llamaindex:v0.10.20.post1

知识库格式:一个全是txt文档的文件夹

需要安装的库:

  1. pip install llama-index
  2. pip install llama-index-embeddings-huggingface

llamaindex的代码改动还挺大的,包括import部分(我在CSDN和知乎等搜到的其他文章的代码都已经不符合现在的版本了),所以代码仅供参考,很有可能在不久之后官方代码就会改动,但是可以参考本文的构建结构和思路去llamaindex官网找到对应的最新的代码。

所有导入的包:

  1. import os
  2. from llama_index.embeddings.huggingface import HuggingFaceEmbedding
  3. from llama_index.core import Settings,SummaryIndex,load_index_from_storage,StorageContext,Settings
  4. from transformers import BitsAndBytesConfig, AutoModelForCausalLM, AutoTokenizer
  5. from typing import Optional, List, Mapping, Any
  6. import torch
  7. from llama_index.llms.huggingface import HuggingFaceLLM
  8. from llama_index.core.prompts import PromptTemplate
  9. from llama_index.core.node_parser import SentenceSplitter
  10. from llama_index.core.callbacks import CallbackManager
  11. from llama_index.core.llms.callbacks import llm_completion_callback
  12. from transformers.generation import GenerationConfig
  13. from llama_index.core.llms import (
  14. CustomLLM,
  15. CompletionResponse,
  16. CompletionResponseGen,
  17. LLMMetadata,
  18. )
第一部分:构建知识库并持久化
        1.最简单的默认构建方式
  1. load document
  2. documents = SimpleDirectoryReader(
  3. input_dir="your/dirs/path").load_data(show_progress=True)
  4. # check document
  5. print("文档总数:",len(documents))
  6. print("第一个文档",documents[0])
  7. index = VectorStoreIndex.from_documents(documents)

        如果想将文档解析成更小的块:

  1. Settings.chunk_size = 4096
  2. #Local settings
  3. index = VectorStoreIndex.from_documents(
  4. documents, transformations=[SentenceSplitter(chunk_size=4096)]
  5. )
        2.我认为比较好用的summary index构建方式

        summary index可以在匹配的过程中根据总结的内容先进行匹配。

  1. splitter = SentenceSplitter(chunk_size=1024)
  2. for dirpath, dirnames, filenames in os.walk("your/dir/path"):
  3. filepaths = [os.path.join(dirpath, name) for name in filenames]
  4. print(filepaths)
  5. docs = []
  6. #遍历filepath,提取txt文档的name作为doc_id
  7. for filepath in filepaths:
  8. _docs = SimpleDirectoryReader(
  9. input_files=[f"{filepath}"]
  10. ).load_data()
  11. _docs[0].doc_id = filepath.split('/')[-1].split('.txt')[0]
  12. docs.extend(_docs)
  13. print(docs)
  14. # default mode of building the index
  15. response_synthesizer = get_response_synthesizer(
  16. response_mode="tree_summarize", use_async=True
  17. )
  18. doc_summary_index = DocumentSummaryIndex.from_documents(
  19. docs,
  20. llm=OurLLM(), #这个llm就是本地化的llm模型,第二部分会讲到它的构建。
  21. transformations=[splitter],
  22. response_synthesizer=response_synthesizer,
  23. show_progress=True,
  24. )
  25. #关于llm=OurLLM():我这里是使用我的大模型对文档内容进行总结,也可以使用embedding模型或者其他模型对文档进行总结。
        3.持久化
doc_summary_index.storage_context.persist("your/persist/path")

        或者

index.storage_context.persist(persist_dir='your/persist/path')
        4.持久化的数据库的加载
  1. #storage_context = StorageContext.from_defaults(persist_dir='your/persist/dir')
  2. #index = load_index_from_storage(storage_context)
  3. storage_context = StorageContext.from_defaults(persist_dir='your/persist/dir')
  4. doc_summary_index = load_index_from_storage(storage_context)
第二部分:使用本地llm模型和本地embed模型
        1.从github或者transformmers下载你要用的模型到本地
        2.进行构建
  1. Settings.embed_model = HuggingFaceEmbedding(
  2. model_name="your/embed/model/path"
  3. )#我用的是bge-large-zh-v1.5
  4. quantization_config = BitsAndBytesConfig(
  5. load_in_4bit=True,
  6. bnb_4bit_compute_dtype=torch.float16,
  7. bnb_4bit_quant_type="nf4",
  8. bnb_4bit_use_double_quant=True,
  9. ) #4比特化加载模型(因为我的显存不够,所以只能这么加载,如果可以全量加载就不需要这个)
  10. model_name = "your/llm/model/path"
  11. tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
  12. model = AutoModelForCausalLM.from_pretrained(model_name, trust_remote_code=True, low_cpu_mem_usage=True,quantization_config=quantization_config).eval()
  13. #自定义本地模型
  14. class OurLLM(CustomLLM):
  15. context_window: int = 4096
  16. num_output: int = 1024
  17. model_name: str = "custom"
  18. @property
  19. def metadata(self) -> LLMMetadata:
  20. """Get LLM metadata."""
  21. return LLMMetadata(
  22. context_window=self.context_window,
  23. num_output=self.num_output,
  24. model_name=self.model_name,
  25. )
  26. @llm_completion_callback()
  27. def complete(self, prompt: str, **kwargs: Any) -> CompletionResponse:
  28. text, history = model.chat(tokenizer, prompt, history=[], temperature=0.1)
  29. return CompletionResponse(text=text)
  30. @llm_completion_callback()
  31. def stream_complete(
  32. self, prompt: str, **kwargs: Any
  33. ) -> CompletionResponseGen:
  34. raise NotImplementedError()
第三部分:query engine和chat engine的构建和使用
1.query engine

1.1 针对最简单的默认构建知识库的方式所构建的query engine

  1. query_engine = index.as_query_engine(similarity_top_k=3)
  2. qa_prompt_tmpl_str = (
  3. "请结合给出的参考知识,回答用户的问题。"
  4. "参考知识如下:\n"
  5. "---------------------\n"
  6. "{context_str}\n"
  7. "---------------------\n"
  8. "用户的问题如下:\n"
  9. "human: {query_str}\n"
  10. "Assistant: "
  11. )
  12. qa_prompt_tmpl = PromptTemplate(qa_prompt_tmpl_str)
  13. query_engine.update_prompts(
  14. {"response_synthesizer:text_qa_template": qa_prompt_tmpl}
  15. )

也可以不自定义prompt,它会自动使用默认的prompt,直接

query_engine = index.as_query_engine(similarity_top_k=3)

默认的prompts可以在:

/你安装的llama_index的文件夹/llama_index/core/prompts/chat_prompts.py和mixin.py和default_prompts.py等里面找到,这个文件夹里面有很多模板py文件,自行搜索就好了。

使用query_engine:

response = query_engine.query('狗头表情包代表什么感情?')

1.2 针对summary index构建的知识库的方式所构建的query_engine

与1.1相同,只不过把index更改为doc_summary_index

  1. query_engine = doc_summary_index.as_query_engine(
  2. response_mode="tree_summarize", use_async=True
  3. )
  4. qa_prompt_tmpl_str = (
  5. "结合参考知识,回答用户的问题\n"
  6. "参考知识如下:\n"
  7. "---------------------\n"
  8. "{context_str}\n"
  9. "---------------------\n"
  10. "用户的问题如下:\n"
  11. "{query_str}\n"
  12. )
  13. qa_prompt_tmpl = PromptTemplate(qa_prompt_tmpl_str)
  14. query_engine.update_prompts(
  15. {"response_synthesizer:text_qa_template": qa_prompt_tmpl}
  16. )
  17. #或者不自定义prompt,直接:
  18. query_engine = doc_summary_index.as_query_engine(
  19. response_mode="tree_summarize", use_async=True
  20. )

 使用query_engine:

response = query_engine.query('狗头表情包代表什么感情?')
查看query_engine的元数据:
print(response.metadata)
2.chat_engine

在使用chat_engine的时候,有可能会出现initial token out of limits,这时候就去修改:

/你安装的llama_index的文件夹/llama_index/core/chat_engine/condense_plus_context.py的token_limit,我设置的是30000

chat_engine需要改的就是它的chat_mode:

/你安装的llama_index的文件夹/llama_index/core/chat_engine文件夹里

2.1 mode:condense_plus_context 的chat_engine

  1. system_prompt = '''请结合给出的参考知识,回答问题。\n
  2. 参考内容如下:\n
  3. ---------------------\n
  4. {context_str}\n
  5. ---------------------\n
  6. Query: {query_str}\n
  7. Answer:
  8. '''
  9. chat_engine = doc_summary_index.as_chat_engine(
  10. chat_mode = 'condense_plus_context',use_async=True,system_prompt=system_prompt,
  11. verbose = True
  12. )
  13. #verbose是在输出的时候会把它找到的相关文档等信息也print出来,默认为False
  14. #只有chat engine有verbose,query engine使用print(response.metadata)来查看

使用:

  1. response = chat_engine.chat('表达开心应该发什么表情包?')
  2. print(response)
  3. response = chat_engine.chat('要高冷地表达')
  4. print(response)
  5. #查看聊天历史:
  6. print(chat_engine.chat_history)

2.2 mode:condense_question

  1. DEFAULT_TEMPLATE = """\
  2. Given a conversation (between Human and Assistant) and a follow up message from Human, \
  3. rewrite the message to be a standalone question that captures all relevant context \
  4. from the conversation.If the answer cannot be confirmed, the user is asked follow-up questions based on the content of the reference knowledge, with a limit of 3 questions.
  5. <Chat History>
  6. {chat_history}
  7. <Follow Up Message>
  8. {question}
  9. <Standalone question>
  10. """
  11. DEFAULT_PROMPT = PromptTemplate(DEFAULT_TEMPLATE)
  12. chat_engine = doc_summary_index.as_chat_engine(
  13. chat_mode = 'condense_question',use_async=True,condense_question_prompt=DEFAULT_PROMPT,
  14. verbose = True
  15. )
  16. #verbose是在输出的时候会把它找到的相关文档等信息也print出来,默认为False

使用:

  1. response = chat_engine.chat('表达开心应该发什么表情包?')
  2. print(response)
  3. response = chat_engine.chat('要高冷地表达')
  4. print(response)
  5. #查看聊天历史:
  6. print(chat_engine.chat_history)
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/寸_铁/article/detail/903936
推荐阅读
相关标签
  

闽ICP备14008679号