赞
踩
RAG(Retrieval Augmented Generation)是一种结合了检索(Retrieval)和生成(Generation)的技术,旨在通过利用外部知识库来增强大型语言模型(LLMs)的性能。它通过检索与用户输入相关的信息片段,并结合这些信息来生成更准确、更丰富的回答,解决LLMs在处理知识密集型任
务时可能遇到如幻觉、知识过时和缺乏透明、可追溯的推理过程等挑战。
问答系统、文本生成、信息检索、图片描述
Vector-DB叫做向量数据库,这里篇幅原因不再展开,其包括数据存储、相似性检索、以及对向量表示的优化。
一图胜千言:
优化方法:索引优化、查询优化、嵌入优化、上下文管理、LLM微调、迭代检索、递归检索、自适应检索
项目实践以开源项目茴香豆为学习对象
项目介绍:
那么我们现在开始:
进入开发机后,从官方环境复制运行 InternLM 的基础环境,命名为 InternLM2_Huixiangdou:
studio-conda -o internlm-base -t InternLM2_Huixiangdou
查看一下环境:
运行 conda命令,激活 InternLM2_Huixiangdou
python虚拟环境:
conda activate InternLM2_Huixiangdou
后续操作均在InternLM2_Huixiangdou下进行
教程为方便我们学习,模型都已经存放在 Intern Studio
开发机共享文件share文件夹,这次学习选用 InternLM2-Chat-7B 作为基础模型,然后我们创建自己模型文件夹到share文件夹的软链接:
- # 创建模型文件夹
- cd /root && mkdir models
-
- # 复制BCE模型
- ln -s /root/share/new_models/maidalun1020/bce-embedding-base_v1 /root/models/bce-embedding-base_v1
- ln -s /root/share/new_models/maidalun1020/bce-reranker-base_v1 /root/models/bce-reranker-base_v1
-
- # 复制大模型参数(下面的模型,根据作业进度和任务进行**选择一个**就行)
- ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm2-chat-7b /root/models/internlm2-chat-7b
GPT命令总结:
执行结果:
安装茴香豆运行所需依赖以及克隆茴香豆代码仓库,并切换到指定版本:
- # 安装 python 依赖
- # pip install -r requirements.txt
-
- pip install protobuf==4.25.3 accelerate==0.28.0 aiohttp==3.9.3 auto-gptq==0.7.1 bcembedding==0.1.3 beautifulsoup4==4.8.2 einops==0.7.0 faiss-gpu==1.7.2 langchain==0.1.14 loguru==0.7.2 lxml_html_clean==0.1.0 openai==1.16.1 openpyxl==3.1.2 pandas==2.2.1 pydantic==2.6.4 pymupdf==1.24.1 python-docx==1.1.0 pytoml==0.1.21 readability-lxml==0.8.1 redis==5.0.3 requests==2.31.0 scikit-learn==1.4.1.post1 sentence_transformers==2.2.2 textract==1.6.5 tiktoken==0.6.0 transformers==4.39.3 transformers_stream_generator==0.0.5 unstructured==0.11.2
-
- ## 因为 Intern Studio 不支持对系统文件的永久修改,在 Intern Studio 安装部署的同学不建议安装 Word 依赖,后续的操作和作业不会涉及 Word 解析。
- ## 想要自己尝试解析 Word 文件的同学,uncomment 掉下面这行,安装解析 .doc .docx 必需的依赖
- # apt update && apt -y install python-dev python libxml2-dev libxslt1-dev antiword unrtf poppler-utils pstotext tesseract-ocr flac ffmpeg lame libmad0 libsox-fmt-mp3 sox libjpeg-dev swig libpulse-dev
- cd /root
- # 克隆代码仓库
- git clone https://github.com/internlm/huixiangdou && cd huixiangdou
- git checkout ded0551
GPT总结:
切换到指定版本
用已下载模型的路径替换 /root/huixiangdou/config.ini
文件中的默认模型,共三处:
- # 修改用于向量数据库和词嵌入的模型
-
- sed -i '6s#.*#embedding_model_path = "/root/models/bce-embedding-base_v1"#' /root/huixiangdou/config.ini
-
- # 用于检索的重排序模型
-
- sed -i '7s#.*#reranker_model_path = "/root/models/bce-reranker-base_v1"#' /root/huixiangdou/config.ini
-
- # 选用的大模型
-
- sed -i '29s#.*#local_llm_path = "/root/models/internlm2-chat-7b"#' /root/huixiangdou/config.ini
结果如下:
GPT总结命令作用:
本示例中,使用 InternLM 的 Huixiangdou 文档作为新增知识数据检索来源,在不重新训练的情况下,打造一个 Huixiangdou 技术问答助手
官方教程:首先,下载 Huixiangdou 语料,命令为:
- cd /root/huixiangdou && mkdir repodir
-
- git clone https://github.com/internlm/huixiangdou --depth=1 repodir/huixiangdou
我通过GPT让他解释命令含义:
做到这一步我就开始有了疑惑,这样怎么就算是下载了Huixiangdou 语料呢?
该问题最终在后续命令操作中以及GPT的帮助下有了新的认识,这里先按下不表
这里官方指出:
我们要做到是提取知识库特征,创建向量数据库。数据库向量化的过程应用到了 LangChain 的相关模块,默认嵌入和重排序模型调用的网易 BCE 双语模型,如果没有在 config.ini
文件中指定本地模型路径,茴香豆将自动从 HuggingFace 拉取默认模型。
除了语料知识的向量数据库,茴香豆还建立接受和拒答两个向量数据库,用来在检索的过程中更加精确的判断提问的相关性,避免消息过载,这两个数据库的来源分别是:(这也是我们接下来要做的准备工作)
huixiangdou/resource/good_questions.json
中huixiangdou/resource/bad_questions.json
中没加入茴香豆相关问题前:
运行下面的命令,增加茴香豆相关的问题到接受问题示例中:
- cd /root/huixiangdou
- mv resource/good_questions.json resource/good_questions_bk.json
-
- echo '[
- "mmpose中怎么调用mmyolo接口",
- "mmpose实现姿态估计后怎么实现行为识别",
- "mmpose执行提取关键点命令不是分为两步吗,一步是目标检测,另一步是关键点提取,我现在目标检测这部分的代码是demo/topdown_demo_with_mmdet.py demo/mmdetection_cfg/faster_rcnn_r50_fpn_coco.py checkpoints/faster_rcnn_r50_fpn_1x_coco_20200130-047c8118.pth 现在我想把这个mmdet的checkpoints换位yolo的,那么应该怎么操作",
- "在mmdetection中,如何同时加载两个数据集,两个dataloader",
- "如何将mmdetection2.28.2的retinanet配置文件改为单尺度的呢?",
- "1.MMPose_Tutorial.ipynb、inferencer_demo.py、image_demo.py、bottomup_demo.py、body3d_pose_lifter_demo.py这几个文件和topdown_demo_with_mmdet.py的区别是什么,\n2.我如果要使用mmdet是不是就只能使用topdown_demo_with_mmdet.py文件,",
- "mmpose 测试 map 一直是 0 怎么办?",
- "如何使用mmpose检测人体关键点?",
- "我使用的数据集是labelme标注的,我想知道mmpose的数据集都是什么样式的,全都是单目标的数据集标注,还是里边也有多目标然后进行标注",
- "如何生成openmmpose的c++推理脚本",
- "mmpose",
- "mmpose的目标检测阶段调用的模型,一定要是demo文件夹下的文件吗,有没有其他路径下的文件",
- "mmpose可以实现行为识别吗,如果要实现的话应该怎么做",
- "我在mmyolo的v0.6.0 (15/8/2023)更新日志里看到了他新增了支持基于 MMPose 的 YOLOX-Pose,我现在是不是只需要在mmpose/project/yolox-Pose内做出一些设置就可以,换掉demo/mmdetection_cfg/faster_rcnn_r50_fpn_coco.py 改用mmyolo来进行目标检测了",
- "mac m1从源码安装的mmpose是x86_64的",
- "想请教一下mmpose有没有提供可以读取外接摄像头,做3d姿态并达到实时的项目呀?",
- "huixiangdou 是什么?",
- "使用科研仪器需要注意什么?",
- "huixiangdou 是什么?",
- "茴香豆 是什么?",
- "茴香豆 能部署到微信吗?",
- "茴香豆 怎么应用到飞书",
- "茴香豆 能部署到微信群吗?",
- "茴香豆 怎么应用到飞书群",
- "huixiangdou 能部署到微信吗?",
- "huixiangdou 怎么应用到飞书",
- "huixiangdou 能部署到微信群吗?",
- "huixiangdou 怎么应用到飞书群",
- "huixiangdou",
- "茴香豆",
- "茴香豆 有哪些应用场景",
- "huixiangdou 有什么用",
- "huixiangdou 的优势有哪些?",
- "茴香豆 已经应用的场景",
- "huixiangdou 已经应用的场景",
- "huixiangdou 怎么安装",
- "茴香豆 怎么安装",
- "茴香豆 最新版本是什么",
- "茴香豆 支持哪些大模型",
- "茴香豆 支持哪些通讯软件",
- "config.ini 文件怎么配置",
- "remote_llm_model 可以填哪些模型?"
- ]' > /root/huixiangdou/resource/good_questions.json
该命令mv resource/good_questions.json resource/good_questions_bk.json备份了一下good_questions.json文件
加入后:
再创建一个测试用的问询列表,用来测试拒答流程是否起效:
- cd /root/huixiangdou
-
- echo '[
- "huixiangdou 是什么?",
- "你好,介绍下自己"
- ]' > ./test_queries.json
该命令创建文件的作用,稍后就会显示出来
官方操作:在确定好语料来源后,运行下面的命令,创建 RAG 检索过程中使用的向量数据库:
- # 创建向量数据库存储目录
- cd /root/huixiangdou && mkdir workdir
-
- # 分别向量化知识语料、接受问题和拒绝问题中后保存到 workdir
- python3 -m huixiangdou.service.feature_store --sample ./test_queries.json
这一步将分别向量化知识语料、接受问题和拒绝问题中后保存到 workdir,之前按下不表的疑问,(下载Huixiangdou 语料,以及怎么被使用的问题)现在通过我的分析和GPT的帮助,有了自己的想法。这里要执行huixiangdou/service/feature_store.py这个脚本,并且传递进了一个参数./test_queries.json这个文件路径,对于feature_store.py这个脚本,分析如下:
第一点,我们之前创建的test_queries.json文件用途,当传递 --sample ./test_queries.json
参数时,test_reject
和 test_query
函数会使用该文件中的查询样本来测试拒绝和查询管道。./test_queries.json
文件应该包含一组查询,这些查询将被用于测试模型的性能
第二点,我们之前通过命令git clone https://github.com/internlm/huixiangdou --depth=1 repodir/huixiangdou克隆了最新版huixiangdou代码库并放进了新建立的文件夹repodir,在脚本扫描文件这一步,会扫描repo_dir
目录。repo_dir
目录的位置取决于你在运行 feature_store.py
脚本时传递的命令行参数。如果没有显式指定,它将使用默认值。默认情况下,repo_dir
的值是 'repodir'
。所以我们存放进repodir文件夹的
代码仓库便是我们需要的语料库。然后脚本会扫描指定目录中的文件,并将这些文件传递给特征存储初始化过程。
弄明白之后,脚本执行开始:
发生报错,缺少“duckduckgo-search”
安装!
重新执行python3 -m huixiangdou.service.feature_store --sample ./test_queries.json
又一个错误,config.ini文件检查第 31 行,出现 "local_llm_path" 键的定义被多次使用
修改文件:
再次重新执行python3 -m huixiangdou.service.feature_store --sample ./test_queries.json
顺利运行:
完成后,Huixiangdou 相关的新增知识就以向量数据库的形式存储在 workdir
文件夹下。
检索过程中,茴香豆会将输入问题与两个列表中的问题在向量空间进行相似性比较,判断该问题是否应该回答,避免群聊过程中的问答泛滥。确定的回答的问题会利用基础模型提取关键词,在知识库中检索 top K
相似的 chunk
,综合问题和检索到的 chunk
生成答案。
测试效果:
- # 填入问题
- sed -i '74s/.*/ queries = ["huixiangdou 是什么?", "茴香豆怎么部署到微信群", "今天天气怎么样?"]/' /root/huixiangdou/huixiangdou/main.py
-
- # 运行茴香豆
- cd /root/huixiangdou/
- python3 -m huixiangdou.main --standalone
结果如下:
对于问题"茴香豆怎么部署到微信群" 接受回答
对于问题"huixiangdou 是什么?" 接受回答
对于问题"今天天气怎么样?" 拒绝回答
到此完成了茴香豆知识助手的服务器端部署。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。