赞
踩
现有的 ChatGPT 的大语言模型中,虽然它本身的功能已经非常强悍了,但是它依然存在一些致命的问题:
那么大模型 LLM 如何解决这些问题,使其生成的内容质量更高,就成了一个难题。
而 RAG(Retrieval-Augmented Generation),通过将检索模型和生成模型(LLM)结合在一起,即可提高了生成内容的相关性和质量。
RAG 技术的主要应用场景为:
从上图可能很多同学非常好奇,大模型是如何与“外挂”数据库进行交互的。不是说大模型不能联网吗?其实大模型和数据库的交互,也是通过提示词完成的。
当然在以上实现过程中,可能会有数据信息极为庞大,而且冗余,如果直接发给大模型,上下文也会极为庞大。所以通常在这种情况下,会对数据库内的数据做一个预处理。让其变的易检索。这个预处理的过程,就使用了向量数据库以及embedding。
如下这张图便是 RAG 的完整过程:
LangChain 包括 ChatGPT 的官方 assistant 的 Retrieval 其实都利用了 RAG 的原理。在后续的课程中会有更深入的实战应用。比如打造垂直领域内容的问答机器人。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。