当前位置:   article > 正文

大模型学习与实践笔记(五)

大模型学习与实践笔记(五)

一、环境配置

1. huggingface 镜像下载 sentence-transformers 开源词向量模型

  1. import os
  2. # 设置环境变量
  3. os.environ['HF_ENDPOINT'] = 'https://hf-mirror.com'
  4. # 下载模型
  5. os.system('huggingface-cli download --resume-download sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2 --local-dir /root/data/model/sentence-transformer')

2.下载 NLTK 相关资源

NLTK(自然语言工具包)是一个用于处理和分析人类语言数据的Python库。它提供了丰富的工具和资源,用于文本处理、语言学特征提取、语言模型训练、语义分析、情感分析等自然语言处理(NLP)任务。

NLTK库具有以下功能和特点:

  1. 文本预处理:NLTK提供了一系列用于文本处理的函数和类,包括分词、词性标注、句法分析、命名实体识别等功能。这些函数和类可用于将原始文本转换为可供分析的结构化数据。

  2. 语料库和语言资源:NLTK包含了大量的语料库和语言资源,用于训练和评估语言模型,以及进行语言学分析和语义理解。这些资源可以帮助研究人员和开发者快速构建和测试自然语言处理算法。

  3. 机器学习和分类:NLTK提供了用于文本分类和信息提取的机器学习算法和工具。这些算法包括朴素贝叶斯分类器、最大熵分类器、支持向量机等,可用于构建和训练文本分类模型。

  4. 语义分析和情感分析:NLTK提供了用于语义分析和情感分析的工具,包括词义消歧、情感极性分析、语义角色标注等。这些工具可用于理解和推断文本的语义含义和情感倾向。

  1. git clone https://gitee.com/yzy0612/nltk_data.git --branch gh-pages
  2. cd nltk_data
  3. wget -O averaged_perceptron_tagger.zip https://raw.githubusercontent.com/nltk/nltk_data/gh-pages/packages/taggers/averaged_perceptron_tagger.zip
  4. wget -O punkt.zip https://raw.githubusercontent.com/nltk/nltk_data/gh-pages/packages/tokenizers/punkt.zip

二、检索库构建

1.构建知识向量库

  1. # 首先导入所需第三方库
  2. from langchain.document_loaders import UnstructuredFileLoader
  3. from langchain.document_loaders import UnstructuredMarkdownLoader
  4. from langchain.text_splitter import RecursiveCharacterTextSplitter
  5. from langchain.vectorstores import Chroma
  6. from langchain.embeddings.huggingface import HuggingFaceEmbeddings
  7. from tqdm import tqdm
  8. import os
  9. # 获取文件路径函数
  10. def get_files(dir_path):
  11. # args:dir_path,目标文件夹路径
  12. file_list = []
  13. for filepath, dirnames, filenames in os.walk(dir_path):
  14. # os.walk 函数将递归遍历指定文件夹
  15. for filename in filenames:
  16. # 通过后缀名判断文件类型是否满足要求
  17. if filename.endswith(".md"):
  18. # 如果满足要求,将其绝对路径加入到结果列表
  19. file_list.append(os.path.join(filepath, filename))
  20. elif filename.endswith(".txt"):
  21. file_list.append(os.path.join(filepath, filename))
  22. return file_list
  23. # 加载文件函数
  24. def get_text(dir_path):
  25. # args:dir_path,目标文件夹路径
  26. # 首先调用上文定义的函数得到目标文件路径列表
  27. file_lst = get_files(dir_path)
  28. # docs 存放加载之后的纯文本对象
  29. docs = []
  30. # 遍历所有目标文件
  31. for one_file in tqdm(file_lst):
  32. file_type = one_file.split('.')[-1]
  33. if file_type == 'md':
  34. loader = UnstructuredMarkdownLoader(one_file)
  35. elif file_type == 'txt':
  36. loader = UnstructuredFileLoader(one_file)
  37. else:
  38. # 如果是不符合条件的文件,直接跳过
  39. continue
  40. docs.extend(loader.load())
  41. return docs
  42. # 目标文件夹
  43. tar_dir = [
  44. "/root/data/InternLM",
  45. "/root/data/InternLM-XComposer",
  46. "/root/data/lagent",
  47. "/root/data/lmdeploy",
  48. "/root/data/opencompass",
  49. "/root/data/xtuner"
  50. ]
  51. # 加载目标文件
  52. docs = []
  53. for dir_path in tar_dir:
  54. docs.extend(get_text(dir_path))
  55. # 对文本进行分块
  56. text_splitter = RecursiveCharacterTextSplitter(
  57. chunk_size=500, chunk_overlap=150)
  58. split_docs = text_splitter.split_documents(docs)
  59. # 加载开源词向量模型
  60. embeddings = HuggingFaceEmbeddings(model_name="/root/data/model/sentence-transformer")
  61. # 构建向量数据库
  62. # 定义持久化路径
  63. persist_directory = 'data_base/vector_db/chroma'
  64. # 加载数据库
  65. vectordb = Chroma.from_documents(
  66. documents=split_docs,
  67. embedding=embeddings,
  68. persist_directory=persist_directory # 允许我们将persist_directory目录保存到磁盘上
  69. )
  70. # 将加载的向量数据库持久化到磁盘上
  71. vectordb.persist()

运行效果

2.将InternLM 接入 LangChain

  1. from langchain.llms.base import LLM
  2. from typing import Any, List, Optional
  3. from langchain.callbacks.manager import CallbackManagerForLLMRun
  4. from transformers import AutoTokenizer, AutoModelForCausalLM
  5. import torch
  6. class InternLM_LLM(LLM):
  7. # 基于本地 InternLM 自定义 LLM 类
  8. tokenizer : AutoTokenizer = None
  9. model: AutoModelForCausalLM = None
  10. def __init__(self, model_path :str):
  11. # model_path: InternLM 模型路径
  12. # 从本地初始化模型
  13. super().__init__()
  14. print("正在从本地加载模型...")
  15. self.tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)
  16. self.model = AutoModelForCausalLM.from_pretrained(model_path, trust_remote_code=True).to(torch.bfloat16).cuda()
  17. self.model = self.model.eval()
  18. print("完成本地模型的加载")
  19. def _call(self, prompt : str, stop: Optional[List[str]] = None,
  20. run_manager: Optional[CallbackManagerForLLMRun] = None,
  21. **kwargs: Any):
  22. # 重写调用函数
  23. system_prompt = """You are an AI assistant whose name is InternLM (书生·浦语).
  24. - InternLM (书生·浦语) is a conversational language model that is developed by Shanghai AI Laboratory (上海人工智能实验室). It is designed to be helpful, honest, and harmless.
  25. - InternLM (书生·浦语) can understand and communicate fluently in the language chosen by the user such as English and 中文.
  26. """
  27. messages = [(system_prompt, '')]
  28. response, history = self.model.chat(self.tokenizer, prompt , history=messages)
  29. return response
  30. @property
  31. def _llm_type(self) -> str:
  32. return "InternLM"

3.构建检索问答链

  1. from langchain.vectorstores import Chroma
  2. from langchain.embeddings.huggingface import HuggingFaceEmbeddings
  3. import os
  4. # 定义 Embeddings
  5. embeddings = HuggingFaceEmbeddings(model_name="/root/data/model/sentence-transformer")
  6. # 向量数据库持久化路径
  7. persist_directory = 'data_base/vector_db/chroma'
  8. # 加载数据库
  9. vectordb = Chroma(
  10. persist_directory=persist_directory,
  11. embedding_function=embeddings
  12. )
  13. from LLM import InternLM_LLM
  14. llm = InternLM_LLM(model_path = "/root/model/Shanghai_AI_Laboratory/internlm-chat-7b")
  15. llm.predict("你是谁")
  16. from langchain.prompts import PromptTemplate
  17. # 我们所构造的 Prompt 模板
  18. template = """使用以下上下文来回答最后的问题。如果你不知道答案,就说你不知道,不要试图编造答案。尽量使答案简明扼要。总是在回答的最后说“谢谢你的提问!”。
  19. {context}
  20. 问题: {question}
  21. 有用的回答:"""
  22. # 调用 LangChain 的方法来实例化一个 Template 对象,该对象包含了 context 和 question 两个变量,在实际调用时,这两个变量会被检索到的文档片段和用户提问填充
  23. QA_CHAIN_PROMPT = PromptTemplate(input_variables=["context","question"],template=template)
  24. from langchain.chains import RetrievalQA
  25. qa_chain = RetrievalQA.from_chain_type(llm,retriever=vectordb.as_retriever(),return_source_documents=True,chain_type_kwargs={"prompt":QA_CHAIN_PROMPT})
  26. # 检索问答链回答效果
  27. question = "什么是InternLM"
  28. result = qa_chain({"query": question})
  29. print("检索问答链回答 question 的结果:")
  30. print(result["result"])
  31. # 仅 LLM 回答效果
  32. result_2 = llm(question)
  33. print("大模型回答 question 的结果:")
  34. print(result_2)

运行效果:

4.gradio 部署

  1. from langchain.vectorstores import Chroma
  2. from langchain.embeddings.huggingface import HuggingFaceEmbeddings
  3. import os
  4. from LLM import InternLM_LLM
  5. from langchain.prompts import PromptTemplate
  6. from langchain.chains import RetrievalQA
  7. def load_chain():
  8. # 加载问答链
  9. # 定义 Embeddings
  10. embeddings = HuggingFaceEmbeddings(model_name="/root/data/model/sentence-transformer")
  11. # 向量数据库持久化路径
  12. persist_directory = 'data_base/vector_db/chroma'
  13. # 加载数据库
  14. vectordb = Chroma(
  15. persist_directory=persist_directory, # 允许我们将persist_directory目录保存到磁盘上
  16. embedding_function=embeddings
  17. )
  18. # 加载自定义 LLM
  19. llm = InternLM_LLM(model_path = "/root/model/Shanghai_AI_Laboratory/internlm-chat-7b")
  20. # 定义一个 Prompt Template
  21. template = """使用以下上下文来回答最后的问题。如果你不知道答案,就说你不知道,不要试图编造答
  22. 案。尽量使答案简明扼要。总是在回答的最后说“谢谢你的提问!”。
  23. {context}
  24. 问题: {question}
  25. 有用的回答:"""
  26. QA_CHAIN_PROMPT = PromptTemplate(input_variables=["context","question"],template=template)
  27. # 运行 chain
  28. qa_chain = RetrievalQA.from_chain_type(llm,retriever=vectordb.as_retriever(),return_source_documents=True,chain_type_kwargs={"prompt":QA_CHAIN_PROMPT})
  29. return qa_chain
  30. class Model_center():
  31. """
  32. 存储检索问答链的对象
  33. """
  34. def __init__(self):
  35. # 构造函数,加载检索问答链
  36. self.chain = load_chain()
  37. def qa_chain_self_answer(self, question: str, chat_history: list = []):
  38. """
  39. 调用问答链进行回答
  40. """
  41. if question == None or len(question) < 1:
  42. return "", chat_history
  43. try:
  44. chat_history.append(
  45. (question, self.chain({"query": question})["result"]))
  46. # 将问答结果直接附加到问答历史中,Gradio 会将其展示出来
  47. return "", chat_history
  48. except Exception as e:
  49. return e, chat_history
  50. import gradio as gr
  51. # 实例化核心功能对象
  52. model_center = Model_center()
  53. # 创建一个 Web 界面
  54. block = gr.Blocks()
  55. with block as demo:
  56. with gr.Row(equal_height=True):
  57. with gr.Column(scale=15):
  58. # 展示的页面标题
  59. gr.Markdown("""<h1><center>InternLM</center></h1>
  60. <center>书生浦语</center>
  61. """)
  62. with gr.Row():
  63. with gr.Column(scale=4):
  64. # 创建一个聊天机器人对象
  65. chatbot = gr.Chatbot(height=450, show_copy_button=True)
  66. # 创建一个文本框组件,用于输入 prompt。
  67. msg = gr.Textbox(label="Prompt/问题")
  68. with gr.Row():
  69. # 创建提交按钮。
  70. db_wo_his_btn = gr.Button("Chat")
  71. with gr.Row():
  72. # 创建一个清除按钮,用于清除聊天机器人组件的内容。
  73. clear = gr.ClearButton(
  74. components=[chatbot], value="Clear console")
  75. # 设置按钮的点击事件。当点击时,调用上面定义的 qa_chain_self_answer 函数,并传入用户的消息和聊天历史记录,然后更新文本框和聊天机器人组件。
  76. db_wo_his_btn.click(model_center.qa_chain_self_answer, inputs=[
  77. msg, chatbot], outputs=[msg, chatbot])
  78. gr.Markdown("""提醒:<br>
  79. 1. 初始化数据库时间可能较长,请耐心等待。
  80. 2. 使用中如果出现异常,将会在文本输入框进行展示,请不要惊慌。 <br>
  81. """)
  82. gr.close_all()
  83. # 直接启动
  84. demo.launch()

运行效果:

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Monodyee/article/detail/583749
推荐阅读
相关标签
  

闽ICP备14008679号