赞
踩
不要修改root文件!不要修改root文件!不要修改root文件!
不要修改环境变量!不要修改环境变量!不要修改环境变量!
RAG(Retrieval Augmented Generation)技术,通过检索与用户输入相关的信息片段,并结合外部知识库来生成更准确、更丰富的回答。解决 LLMs 在处理知识密集型任务时可能遇到的挑战, 如幻觉、知识过时和缺乏透明、可追溯的推理过程等。提供更准确的回答、降低推理成本、实现外部记忆。
RAG 能够让基础模型实现非参数知识更新,无需训练就可以掌握新领域的知识。本次课程选用的茴香豆应用,就应用了 RAG 技术,可以快速、高效的搭建自己的知识领域助手。
可见第二节课配置基础环境代码,就是注意填写 开发机名称
后,点击 选择镜像 使用 Cuda11.7-conda
镜像,然后在资源配置中,使用 30% A100 * 1
的选项,然后立即创建开发机器。
进入开发机后,从官方环境复制运行 InternLM 的基础环境,命名为 InternLM2_Huixiangdou
,在命令行模式下运行:
studio-conda -o internlm-base -t InternLM2_Huixiangdou
复制完成后,在本地查看环境。
conda env list
结果如下所示。
# conda environments: # base * /root/.conda InternLM2_Huixiangdou /root/.conda/envs/InternLM2_Huixiangdou
运行 conda 命令,激活 InternLM2_Huixiangdou
python 虚拟环境:
conda activate InternLM2_Huixiangdou
后续教程所有操作都需要在该环境下进行,重启开发机或打开新命令行后要重新激活环境。
复制茴香豆所需模型文件。
# 创建模型文件夹 cd /root && mkdir models # 复制BCE模型 ln -s /root/share/new_models/maidalun1020/bce-embedding-base_v1 /root/models/bce-embedding-base_v1 ln -s /root/share/new_models/maidalun1020/bce-reranker-base_v1 /root/models/bce-reranker-base_v1 # 复制大模型参数(下面的模型,根据作业进度和任务进行**选择一个**就行) ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm2-chat-7b /root/models/internlm2-chat-7b
安装茴香豆运行所需依赖。
# 安装 python 依赖 # pip install -r requirements.txt pip install protobuf==4.25.3 accelerate==0.28.0 aiohttp==3.9.3 auto-gptq==0.7.1 bcembedding==0.1.3 beautifulsoup4==4.8.2 einops==0.7.0 faiss-gpu==1.7.2 langchain==0.1.14 loguru==0.7.2 lxml_html_clean==0.1.0 openai==1.16.1 openpyxl==3.1.2 pandas==2.2.1 pydantic==2.6.4 pymupdf==1.24.1 python-docx==1.1.0 pytoml==0.1.21 readability-lxml==0.8.1 redis==5.0.3 requests==2.31.0 scikit-learn==1.4.1.post1 sentence_transformers==2.2.2 textract==1.6.5 tiktoken==0.6.0 transformers==4.39.3 transformers_stream_generator==0.0.5 unstructured==0.11.2 ## 因为 Intern Studio 不支持对系统文件的永久修改,在 Intern Studio 安装部署的同学不建议安装 Word 依赖,后续的操作和作业不会涉及 Word 解析。 ## 想要自己尝试解析 Word 文件的同学,uncomment 掉下面这行,安装解析 .doc .docx 必需的依赖 # apt update && apt -y install python-dev python libxml2-dev libxslt1-dev antiword unrtf poppler-utils pstotext tesseract-ocr flac ffmpeg lame libmad0 libsox-fmt-mp3 sox libjpeg-dev swig libpulse-dev
从茴香豆官方仓库下载茴香豆。
cd /root # 下载 repo git clone https://github.com/internlm/huixiangdou && cd huixiangdou git checkout 447c6f7e68a1657fce1c4f7c740ea1700bde0440
用已下载模型的路径替换 /root/huixiangdou/config.ini
文件中的默认模型,需要修改 3 处模型地址,分别是:
命令行输入下面的命令,修改用于向量数据库和词嵌入的模型
sed -i '6s#.*#embedding_model_path = "/root/models/bce-embedding-base_v1"#' /root/huixiangdou/config.ini
用于检索的重排序模型
sed -i '7s#.*#reranker_model_path = "/root/models/bce-reranker-base_v1"#' /root/huixiangdou/config.ini
和本次选用的大模型
sed -i '29s#.*#local_llm_path = "/root/models/internlm2-chat-7b"#' /root/huixiangdou/config.ini
本示例中,使用 InternLM 的 Huixiangdou 文档作为新增知识数据检索来源,在不重新训练的情况下,打造一个 Huixiangdou 技术问答助手。
首先,下载 Huixiangdou 语料:
cd /root/huixiangdou && mkdir repodir git clone https://github.com/internlm/huixiangdou --depth=1 repodir/huixiangdou
提取知识库特征,创建向量数据库。数据库向量化的过程应用到了 LangChain 的相关模块,默认嵌入和重排序模型调用的网易 BCE 双语模型,如果没有在 config.ini
文件中指定本地模型路径,茴香豆将自动从 HuggingFace 拉取默认模型。
除了语料知识的向量数据库,茴香豆建立接受和拒答两个向量数据库,用来在检索的过程中更加精确的判断提问的相关性,这两个数据库的来源分别是:
huixiangdou/resource/good_questions.json
中huixiangdou/resource/bad_questions.json
中运行下面的命令,增加茴香豆相关的问题到接受问题示例中:
cd /root/huixiangdou mv resource/good_questions.json resource/good_questions_bk.json echo '[ "huixiangdou 是什么?", "茴香豆 是什么?", "茴香豆 能部署到微信吗?", "茴香豆 怎么应用到飞书", "茴香豆 能部署到微信群吗?", "茴香豆 怎么应用到飞书群", "huixiangdou 能部署到微信吗?", "huixiangdou 怎么应用到飞书", "huixiangdou 能部署到微信群吗?", "huixiangdou 怎么应用到飞书群", "huixiangdou", "茴香豆", "茴香豆 有哪些应用场景", "huixiangdou 有什么用", "huixiangdou 的优势有哪些?", "茴香豆 已经应用的场景", "huixiangdou 已经应用的场景", "huixiangdou 怎么安装", "茴香豆 怎么安装", "茴香豆 最新版本是什么", "茴香豆 支持哪些大模型", "茴香豆 支持哪些通讯软件", "config.ini 文件怎么配置", "remote_llm_model 可以填哪些模型?" ]' > /root/huixiangdou/resource/good_questions.json
再创建一个测试用的问询列表,用来测试拒答流程是否起效:
cd /root/huixiangdou echo '[ "huixiangdou 是什么?", "你好,介绍下自己" ]' > ./test_queries.json
在确定好语料来源后,运行下面的命令,创建 RAG 检索过程中使用的向量数据库:
# 创建向量数据库存储目录 cd /root/huixiangdou && mkdir workdir # 分别向量化知识语料、接受问题和拒绝问题中后保存到 workdir python3 -m huixiangdou.service.feature_store --sample ./test_queries.json
向量数据库的创建需要等待一小段时间,过程约占用 1.6G 显存。
完成后,Huixiangdou 相关的新增知识就以向量数据库的形式存储在 workdir
文件夹下。
检索过程中,茴香豆会将输入问题与两个列表中的问题在向量空间进行相似性比较,判断该问题是否应该回答,避免群聊过程中的问答泛滥。确定的回答的问题会利用基础模型提取关键词,在知识库中检索 top K
相似的 chunk
,综合问题和检索到的 chunk
生成答案。
我们已经提取了知识库特征,并创建了对应的向量数据库。现在,让我们来测试一下效果:
命令行运行:
# 填入问题 sed -i '74s/.*/ queries = ["huixiangdou 是什么?", "茴香豆怎么部署到微信群", "今天天气怎么样?"]/' /root/huixiangdou/huixiangdou/main.py # 运行茴香豆 cd /root/huixiangdou/ python3 -m huixiangdou.main --standalone
RAG 技术的优势就是非参数化的模型调优,这里使用的仍然是基础模型 InternLM2-Chat-7B
, 没有任何额外数据的训练。面对同样的问题,我们的茴香豆技术助理能够根据我们提供的数据库生成准确的答案:
茴香豆并非单纯的 RAG 功能实现,而是一个专门针对群聊优化的知识助手,下面介绍一些茴香豆的进阶用法。
茴香豆除了可以从本地向量数据库中检索内容进行回答,也可以加入网络的搜索结果,生成回答。
开启网络搜索功能需要用到 Serper 提供的 API:
/huixiangdou/config.ini
中的 ${YOUR-API-KEY} 为自己的API-key:- [web_search]
- # check https://serper.dev/api-key to get a free API key
- x_api_key = "${YOUR-API-KEY}"
- domain_partial_order = ["openai.com", "pytorch.org", "readthedocs.io", "nvidia.com", "stackoverflow.com", "juejin.cn", "zhuanlan.zhihu.com", "www.cnblogs.com"]
- save_dir = "logs/web_search_result"
其中 domain_partial_order
可以设置网络搜索的范围。
茴香豆除了可以使用本地大模型,还可以轻松的调用云端模型 API。
目前,茴香豆已经支持 Kimi
,GPT-4
,Deepseek
和 GLM
等常见大模型API。
想要使用远端大模型,首先修改 /huixiangdou/config.ini
文件中
- enable_local = 0 # 关闭本地模型
- enable_remote = 1 # 启用云端模型
接着,如下图所示,修改 remote_
相关配置,填写 API key、模型类型等参数。
远端模型配置选项 | GPT | Kimi | Deepseek | ChatGLM | xi-api | alles-apin |
---|---|---|---|---|---|---|
remote_type | gpt | kimi | deepseek | zhipuai | xi-api | alles-apin |
remote_llm_max_text_length 最大值 | 192000 | 128000 | 16000 | 128000 | 192000 | - |
remote_llm_model | "gpt-4-0613" | "moonshot-v1-128k" | "deepseek-chat" | "glm-4" | "gpt-4-0613" | - |
让我们用 Gradio 搭建一个自己的网页对话 Demo,来看看效果。
pip install gradio==4.25.0 redis==5.0.3 flask==3.0.2 lark_oapi==1.2.4
cd /root/huixiangdou python3 -m tests.test_query_gradio
此时服务器端接口已开启。如果在本地服务器使用,直接在浏览器中输入 127.0.0.1:7860 ,即可进入茴香豆对话 Demo 界面。
针对远程服务器,如我们的 Intern Studio
开发机,我们需要设置端口映射,转发端口到本地浏览器:同第二节课
Windows + R
(Windows 即开始菜单键)打开指令界面,并输入命令 Powershell
,按下回车键终端
ctrl + alt + t
在命令行中输入如下命令,命令行会提示输入密码:
ssh -CNg -L 7860:127.0.0.1:7860 root@ssh.intern-ai.org.cn -p <你的端口号>
如果需要更换检索的知识领域,只需要用新的语料知识重复步骤 2.2 创建知识库 提取特征到新的向量数据库,更改 huixiangdou/config.ini
文件中 work_dir = "新向量数据库路径"
;
或者运行:
python3 -m tests.test_query_gradi --work_dir <新向量数据库路径>
无需重新训练或微调模型,就可以轻松的让基础模型学会新领域知识,搭建一个新的问答助手。
茴香豆的配置文件位于代码主目录下,采用 Toml
形式,有着丰富的功能,下面将解析配置文件中重要的常用参数。
- [feature_store]
- ...
- reject_throttle = 0.22742061846268935
- ...
- embedding_model_path = "/root/models/bce-embedding-base_v1"
- reranker_model_path = "/root/models/bce-reranker-base_v1"
- ...
- work_dir = "workdir"
reject_throttle
: 拒答阈值,0-1,数值越大,回答的问题相关性越高。拒答分数在检索过程中通过与示例问题的相似性检索得出,高质量的问题得分高,无关、低质量的问题得分低。只有得分数大于拒答阈值的才会被视为相关问题,用于回答的生成。当闲聊或无关问题较多的环境可以适当调高。 embedding_model_path
和 reranker_model_path
: 嵌入和重排用到的模型路径。不设置本地模型路径情况下,默认自动通过 Huggingface 下载。开始自动下载前,需要使用下列命令登录 Huggingface 账户获取权限:
huggingface-cli login
work_dir
: 向量数据库路径。茴香豆安装后,可以通过切换向量数据库路径,来回答不同知识领域的问答。
- [llm.server]
- ...
- local_llm_path = "/root/models/internlm2-chat-1_8b"
- local_llm_max_text_length = 3000
- ...
local_llm_path
: 本地模型文件夹路径或模型名称。现支持 书生·浦语 和 通义千问 模型类型,调用 transformers
的 AutoModels
模块,除了模型路径,输入 Huggingface 上的模型名称,如*"internlm/internlm2-chat-7b"、"qwen/qwen-7b-chat-int8"、"internlm/internlm2-chat-20b"*,也可自动拉取模型文件。 local_llm_max_text_length
: 模型可接受最大文本长度。
远端模型支持参考上一小节。
- [worker]
- # enable search enhancement or not
- enable_sg_search = 0
- save_path = "logs/work.txt"
- ...
[worker]
: 增强搜索功能,配合 [sg_search]
使用。增强搜索利用知识领域的源文件建立图数据库,当模型判断问题为无关问题或回答失败时,增强搜索功能将利用 LLM 提取的关键词在该图数据库中搜索,并尝试用搜索到的内容重新生成答案。在 config.ini
中查看 [sg_search]
具体配置示例。
- [worker.time]
- start = "00:00:00"
- end = "23:59:59"
- has_weekday = 1
[worker.time]
: 可以设置茴香豆每天的工作时间,通过 start
和 end
设定应答的起始和结束时间。 has_weekday
: = 1
的时候,周末不应答
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。