赞
踩
RAG是一种结合了检索和生成的技术,旨在通过利用外部知识库来增强大语言模型的性能。它通过检索与用户输入相关的信息片段,并结合这些信息来生成更准确,更丰富的回答。
RAG(Retrieval Augmented Generation)技术解决 LLMs 在处理知识密集型任务时可能遇到的挑战, 如幻觉、知识过时和缺乏透明、可追溯的推理过程等。提供更准确的回答、降低推理成本、实现外部记忆。
如图所示,由于茴香豆是一款比较新的应用, InternLM2-Chat-7B
训练数据库中并没有收录到它的相关信息。左图中关于 huixiangdou 的 3 轮问答均未给出准确的答案。右图未对 InternLM2-Chat-7B
进行任何增训的情况下,通过 RAG 技术实现的新增知识问答
RAG技术的应用 :
工作原理:索引,检索,生成
向量数据库(Vector-DB):是RAG中专门存储外部数据的地方
RAG流程示例:
RAG发展进程:
Naive RAG(问答系统,信息检索)——>Advanced RAG(摘要生成,内容推荐)——>Modular RAG(多模态任务,对话系统)
RAG常见优化方法:
嵌入优化,索引优化:通过提升数据库的质量从而对RAG的性能进行提升
查询优化,上下文管理
迭代检索,递归检索,自适应检索,LLM微调(都是针对RAG模块和流程进行的优化)
微调:对于外部数据需求不高但是对于模型任务要求适配很高的场景的手段
经典评估指标:准确率,召回率,F1分数,BLEU分数,ROUGE分数
RAG评测框架:基准测试-RAG,RECALL,CRUD
评测工具-RAGAS,ARES,TruLens
RAG总结:
基于LLMs的领域知识助手,由书生浦语团队开发的开源大模型应用
核心特性:
工作流程:
在OpenXLab打开茴香豆界面,链接如下:
输入知识库名称,并设置知识库密码,在本次测试中,我导入的文档是Linux实验内容,测试结果如下:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。