赞
踩
检索增强生成 (RAG) 是一种利用来自私有或专有数据源的信息来补充文本生成的技术。 它将旨在搜索大型数据集或知识库的检索模型与大型语言模型 (LLM) 等生成模型相结合,后者获取该信息并生成可读的文本响应。
检索增强生成可以通过添加来自其他数据源的上下文并通过培训补充 LLMs 的原始知识库来提高搜索体验的相关性。 这增强了大型语言模型的输出,而无需重新训练模型。 其他信息来源的范围包括 LLM 未受过培训的互联网上的新信息、专有业务背景或属于企业的机密内部文件。
RAG 对于问答和内容生成等任务很有价值,因为它使生成式 AI系统能够使用外部信息源来生成更准确和上下文感知的响应。 它实现搜索检索方法(通常是语义搜索或混合搜索)来响应用户意图并提供更相关的结果。
信息检索(information retrieval - IR)是指从知识源或数据集中搜索和提取相关信息的过程。 这很像使用搜索引擎在互联网上查找信息。 你输入查询,系统会检索并向你显示最有可能包含你正在查找的信息的文档或网页。
信息检索涉及对大型数据集进行有效索引和搜索的技术; 这使得人们更容易从大量可用数据中访问他们需要的特定信息。 除了网络搜索引擎之外,IR 系统还经常用于数字图书馆、文档管理系统和各种信息访问应用程序。
多年来,人工智能语言模型已经发生了显着的发展:
如今,Transformer 模型处理数据的方式可以通过预测单词序列中接下来出现的单词来模拟人类语音。 这些模型彻底改变了该领域,并导致了 LLM 的兴起,例如谷歌的 BERT(来自 Transformers 的双向编码器表示)。
我们看到大量预训练模型和专为特定任务设计的专用模型的组合。 RAG 等模型继续受到关注,将生成式 AI 语言模型的范围扩展到标准训练的限制之外。 2022 年,OpenAI 推出了 ChatGPT,这可以说是最著名的基于 Transformer 架构的 LLM。 它的竞争对手包括基于聊天的基础模型,例如 Google Bard 和微软的 Bing Chat。 Meta 的 LLaMa 2 不是消费者聊天机器人,而是开源 LLM,熟悉 LLM 工作原理的研究人员可以免费使用。
检索增强生成是一个多步骤过程,从检索开始,然后导致生成。 下面是它的工作原理:
与孤立工作的语言模型相比,检索增强生成有几个好处。 以下是它改进文本生成和响应的几种方法:
检索增强生成和微调 (fine-tunning) 是训练人工智能语言模型的两种不同方法。 虽然 RAG 将广泛的外部知识检索与文本生成结合起来,但微调侧重于用于不同目的的狭窄数据范围。
在微调过程中,预训练模型会根据专门数据进行进一步训练,以使其适应任务子集。 它涉及根据新数据集修改模型的权重和参数,使其能够学习特定于任务的模式,同时保留初始预训练中的知识。
微调可用于各种人工智能。 一个基本的例子是在识别互联网上的猫照片的背景下学习识别小猫。 在基于语言的模型中,除了文本生成之外,微调还可以帮助完成文本分类、情感分析和命名实体识别等工作。 然而,这个过程可能非常耗时且昂贵。 RAG 加快了流程,并以更少的计算和存储需求整合了这些成本。
由于 RAG 可以访问外部资源,因此当任务需要合并来自 Web 或企业知识库的实时或动态信息以生成明智的响应时,RAG 特别有用。 微调具有不同的优势:如果手头的任务定义明确并且目标是单独优化该任务的性能,则微调可能非常有效。 这两种技术的优点是不必为每项任务从头开始培训 LLM。
虽然 RAG 具有显着的优势,但它也面临着一些挑战和限制:
检索增强生成的未来趋势集中在使 RAG 技术更高效、更适应各种应用。 以下是一些值得关注的趋势:
RAG 模型将继续纳入用户特定的知识。 这将使他们能够提供更加个性化的响应,特别是在内容推荐和虚拟助理等应用程序中。
除了个性化之外,用户本身还可以更好地控制 RAG 模型的行为和响应方式,以帮助他们获得所需的结果。
RAG 模型将能够处理比目前更大量的数据和用户交互。
RAG 与其他人工智能技术(例如强化学习)的集成将允许更通用和上下文感知的系统,可以同时处理各种数据类型和任务。
随着 RAG 模型检索速度和响应时间的提高,它们将更多地用于需要快速响应的应用程序(例如聊天机器人和虚拟助手)。
借助 Elasticsearch Relevance Engine,你可以为生成式 AI 应用程序、网站、客户或员工体验构建支持 RAG 的搜索。 Elasticsearch 提供了一个全面的工具包,使你能够:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。