当前位置:   article > 正文

大模型学习路线(3)——知识检索增强(RAG)_大模型知识引擎

大模型知识引擎

目录

一、 RAG理论篇(基础)

二、RAG理论篇(进阶)

1. Token分词

2. Embedding技术

3.知识向量库

4.相似性搜索/向量检索

5.知识召回

三、RAG实践篇


        上图为LLM+RAG运行的整体流程。如果想对RAG有系统化的理论认知,基本看如下三篇技术概览足矣,其它不再多做赘述了,毕竟没必要重复造轮子(bushi。

        章节一的三篇技术概览了RAG理论部分,从RAG整体流程介绍,到RAG流程涉及每一步骤的细节详解、常用技术,再到总结、当下发展、未来展望。章节二为进阶部分,介绍了RAG的关键技术。章节三介绍了RAG的实践,RAG之前跑的demo忘保存了,找时间补回来,留个坑位先......(饼先搁这画上了)。

        RAG内容为LLM岗重点考察内容,涉及知识点多的嘞!!!


一、 RAG理论篇(基础)

RAG整体流程
  1. RAG技术概览(一)高级检索增强生成技术(RAG)全面指南:原理、分块、编码、索引、微调、Agent、展望 - 知乎 (zhihu.com)
  2. RAG技术概览(二)深度好文!最全的大模型 RAG 技术概览 - 知乎 (zhihu.com)
  3. RAG技术概览(三)RAG实战全解析:一年探索之路 - 知乎 (zhihu.com)

二、RAG理论篇(进阶)

1. Token分词

2. Embedding技术

3.知识向量库

4.相似性搜索/向量检索

5.知识召回

5.1. 知识召回流程

        (此处cue一下推荐系统的知识召回。针对推荐系统,后续也会进行系统的学习+实践+专栏整理,埋个坑先......)

图5.1 知识召回+Rank排序

(1)物料库经过Tokensize、Embedding后,得到Vectors,扔进向量数据库进行初步检索和知识召回对称召回和非对称召回

(2)初步召回得候选集进行粗排

(3)粗排后,对候选集进行精排,根据Q & A的匹配程度/相似度进行Rank排序,挑选Top K个答案。涉及多种技术,包括文本召回、向量召回、推荐召回、标签召回、Embedding召回、协同召回、图召回等,以及多种召回算法混合的多路召回;(召回方法如何选择,一看具体的业务场景,二看准确率和召回速度上的平衡。一般来说,多路召回效果好、但召回和推理速度很慢,单路召回速度快,但准确率可能会有所损失。)

(4)Rerank,得到Top K检索结果,以及各检索项的得分。

5.2. RAG知识召回分类

        分生成式和检索式召回(文本召回、语义召回、多路召回)召回两个角度。重点分析检索式召回和文本召回、语义召回的优缺。

图5.2 LLM常用知识召回分类

召回分类

文本召回(/倒排召回/稀疏向量召回) 

语义召回(/向量召回/稠密向量召回)

优点

(1)检索速度更快;

(2)可解释能力强;

(3)精确匹配能力强;

(4)支持自定义停用词表,同义词表。

(1)考虑语义相似性,更加智能;

2语义相近即可召回,无需寻找同义词替换

3无需考虑复杂的传统倒排的调优手段

(4)具备支持跨模态召回的潜力。

缺点

(1)无语义信息,对一词多义不友好;

(2)语义偏移。

需要模型训练,对垂直领域落地支持有限

1垂直领域泛化性不足不理解专有词汇易出现语义相似但主题不相似的情况);

2对精准匹配支持不足,难以用专业词汇精准召回

3可解释能力弱

(4)需要更多的计算资源

(5)对”多词一义”情况的支持不如倒排召回中的同义词表简单直接。

三、RAG实践篇

        蹲坑ing......

(下班!!!明天再补剩余内容!!!)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/428338?site
推荐阅读
相关标签
  

闽ICP备14008679号