赞
踩
Finetune
在大型语言模型中,Finetune(微调)是一种技术,用于调整预训练的模型以提高其在特定任务或数据集上的表现。这种方法通常涉及以下步骤:
预训练模型:首先,需要一个预训练的大型语言模型,如GPT、BERT或其他变体。这些模型通常在大型文本语料库上训练,以学习语言的广泛特征和结构。
特定任务的数据:接着,收集和准备针对特定任务的数据集。这个数据集应该包括输入和期望的输出,例如,用于情感分析的句子和它们的情感标签,或者用于翻译任务的句子对。
微调:然后,使用特定任务的数据集对预训练模型进行微调。这通常涉及在该数据集上继续训练模型一段时间,调整模型的权重以优化任务特定的性能。微调时,学习率通常设置得比预训练阶段低,以避免过快破坏预训练时学到的有用特征。
评估和调整:最后,评估微调后模型的性能,并根据需要调整微调过程(如调整学习率、训练更多的轮次或修改数据处理方式)以进一步提高性能。
微调的优势在于能够利用预训练模型在广泛数据上学习到的丰富知识,从而需要较少的标注数据就可以达到较高的性能。这对于数据稀缺的任务尤其有价值。然而,微调也有其挑战,例如过拟合(特别是在小数据集上)、调整过程中的超参数选择等。
Retrieval Augmented Generation (RAG)
RAG是一种自然语言处理技术,结合了信息检索和文本生成的能力,以提高模型在处理复杂查询时的性能和准确性。在RAG系统中,首先利用一个检索组件查询一个大型文档数据库,以找到与给定查询最相关的信息。然后,这些检索到的文档被送入一个生成模型,如序列到序列的转换模型,这个模型利用检索到的信息来生成回答或完成给定的文本任务。
RAG模型的关键在于它结合了检索的精确性和生成模型的灵活性。通过这种方式,RAG能够在需要具体信息或知识支持时提供更准确、更丰富的回答。例如,在回答特定的事实问题、撰写有关特定主题的文章或生成信息丰富的对话回复时,RAG模型可以展现出比传统的生成模型更优越的性能。
RAG技术的一个主要优势是它能够有效地处理那些对传统生成模型来说过于复杂或需要外部知识的查询。它通过检索相关文档来直接利用现有的知识库,然后将这些信息融入生成过程中,从而提高了生成文本的相关性和准确性。这使得RAG尤其适合于需要广泛背景知识的应用场景,如问答系统、内容创作和对话系统等。
RAG模型的实现通常涉及到两个主要组件的训练和优化:检索组件和生成组件。检索组件负责从大型文档集中快速有效地检索出与查询最相关的文档,而生成组件则负责处理这些文档,并基于它们生成连贯和相关的文本输出。这两个组件的协同工作使得RAG能够在许多自然语言处理任务中实现高性能。
LangChain是一个开源框架,旨在利用最新的自然语言处理(NLP)技术,尤其是大型语言模型(LLM),来构建和部署语言应用。它提供了一套工具和API,使开发者能够轻松集成复杂的语言理解和生成能力到他们的应用中。LangChain通过提供与检索增强生成(RAG)、链式推理、对话系统等高级功能的集成,促进了创新应用的开发。以下是几种结合LangChain可能的应用场景:
基于langChain搭建RAG
加载源文件 -》文档分块 -》文档向量
构建一个检索问答链(Retrieval Question-Answering Chain, RQAC)涉及到创建一个系统,它可以通过检索相关信息并基于这些信息生成回答来处理复杂的查询。这个过程通常涉及到以下几个关键步骤:
需求分析:
确定系统的目标用户和用例。
确定需要检索的信息类型和来源。
选择或构建检索系统:
确定适合的检索技术(例如,Elasticsearch, Solr, 或自定义检索算法)。
构建或配置检索数据库,确保它包含足够的信息来回答用户的问题。
实现一个检索模块,它可以根据用户的查询从数据库中检索相关文档或信息。
选择或开发问答生成模型:
选择一个现有的语言模型(如GPT-4, BERT, T5等),这些模型可以用来理解查询和生成回答。
根据需要,训练或微调模型以提高对特定域或任务的回答质量。
集成检索和问答系统:
实现一个流程,其中用户的查询首先触发检索模块来查找相关信息。
将检索到的信息作为上下文输入到问答模型中,生成针对用户查询的回答。
用户界面设计:
设计一个用户界面,用户可以通过它提交查询并接收回答。
确保界面简洁易用,能够清楚地展示检索到的信息和生成的回答。
测试和优化:
对系统进行彻底测试,包括单元测试、集成测试和用户接受测试。
根据反馈优化检索准确性和回答质量。
部署和维护:
部署系统到生产环境。
定期更新数据库和模型,确保系统能够处理新出现的查询和信息。
有很多支持简易Web部署的框架,如Gradio,streamlit
conda activate InternLM
安装一些重要的包
# 升级pip
python -m pip install --upgrade pip
pip install modelscope==1.9.5
pip install transformers==4.35.2
pip install streamlit==1.24.0
pip install sentencepiece==0.1.99
pip install accelerate==0.24.1
在目录下新建 download.py 文件并在其中输入以下内容,粘贴代码后记得保存文件,如下图所示。并运行 python download.py 执行下载,模型大小为 14 GB,下载模型大概需要 10~20 分钟
import torch
from modelscope import snapshot_download, AutoModel, AutoTokenizer
import os
model_dir = snapshot_download('Shanghai_AI_Laboratory/internlm-chat-7b', cache_dir='../model', revision='v1.0.3')
在已完成 InternLM 的部署基础上,还需要安装以下依赖包:
pip install langchain==0.0.292
pip install gradio==4.4.0
pip install chromadb==0.4.15
pip install sentence-transformers==2.2.2
pip install unstructured==0.10.30
pip install markdown==3.3.7
同时,需要使用到开源词向量模型 Sentence Transformer
首先需要使用 huggingface 官方提供的 huggingface-cli 命令行工具。安装依赖:
pip install -U huggingface_hub
目录下新建python文件 download_hf.py,填入以下代码:
import os
# 下载模型
os.system('huggingface-cli download --resume-download sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2 --local-dir ../model/sentence-transformer')
cd /root
git clone https://gitee.com/yzy0612/nltk_data.git --branch gh-pages
cd nltk_data
mv packages/* ./
cd tokenizers
unzip punkt.zip
cd ../taggers
unzip averaged_perceptron_tagger.zip
cd /root/data
git clone https://github.com/InternLM/tutorial
我们选择由上海人工智能实验室开源的一系列大模型工具开源仓库作为语料库来源,包括:
OpenCompass:面向大模型评测的一站式平台
IMDeploy:涵盖了 LLM 任务的全套轻量化、部署和服务解决方案的高效推理工具箱
XTuner:轻量级微调大语言模型的工具库
InternLM-XComposer:浦语·灵笔,基于书生·浦语大语言模型研发的视觉-语言大模型
Lagent:一个轻量级、开源的基于大语言模型的智能体(agent)框架
InternLM:一个开源的轻量级训练框架,旨在支持大模型训练而无需大量的依赖
cd /root/data
# clone 上述开源仓库
git clone https://gitee.com/open-compass/opencompass.git
git clone https://gitee.com/InternLM/lmdeploy.git
git clone https://gitee.com/InternLM/xtuner.git
git clone https://gitee.com/InternLM/InternLM-XComposer.git
git clone https://gitee.com/InternLM/lagent.git
git clone https://gitee.com/InternLM/InternLM.git
将数据整理出来的脚本
# 首先导入所需第三方库 from langchain.document_loaders import UnstructuredFileLoader from langchain.document_loaders import UnstructuredMarkdownLoader from langchain.text_splitter import RecursiveCharacterTextSplitter from langchain.vectorstores import Chroma from langchain.embeddings.huggingface import HuggingFaceEmbeddings from tqdm import tqdm import os # 获取文件路径函数 def get_files(dir_path): # args:dir_path,目标文件夹路径 file_list = [] for filepath, dirnames, filenames in os.walk(dir_path): # os.walk 函数将递归遍历指定文件夹 for filename in filenames: # 通过后缀名判断文件类型是否满足要求 if filename.endswith(".md"): # 如果满足要求,将其绝对路径加入到结果列表 file_list.append(os.path.join(filepath, filename)) elif filename.endswith(".txt"): file_list.append(os.path.join(filepath, filename)) return file_list # 加载文件函数 def get_text(dir_path): # args:dir_path,目标文件夹路径 # 首先调用上文定义的函数得到目标文件路径列表 file_lst = get_files(dir_path) # docs 存放加载之后的纯文本对象 docs = [] # 遍历所有目标文件 for one_file in tqdm(file_lst): file_type = one_file.split('.')[-1] if file_type == 'md': loader = UnstructuredMarkdownLoader(one_file) elif file_type == 'txt': loader = UnstructuredFileLoader(one_file) else: # 如果是不符合条件的文件,直接跳过 continue docs.extend(loader.load()) return docs # 目标文件夹 tar_dir = [ "/root/data/InternLM", "/root/data/InternLM-XComposer", "/root/data/lagent", "/root/data/lmdeploy", "/root/data/opencompass", "/root/data/xtuner" ] # 加载目标文件 docs = [] for dir_path in tar_dir: docs.extend(get_text(dir_path)) # 对文本进行分块 text_splitter = RecursiveCharacterTextSplitter( chunk_size=500, chunk_overlap=150) split_docs = text_splitter.split_documents(docs) # 加载开源词向量模型 embeddings = HuggingFaceEmbeddings(model_name="/root/data/model/sentence-transformer") # 构建向量数据库 # 定义持久化路径 persist_directory = 'data_base/vector_db/chroma' # 加载数据库 vectordb = Chroma.from_documents( documents=split_docs, embedding=embeddings, persist_directory=persist_directory # 允许我们将persist_directory目录保存到磁盘上 ) # 将加载的向量数据库持久化到磁盘上 vectordb.persist()
实行
DEMO
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。