赞
踩
充分发挥 LLM 的潜力需要在检索增强生成(RAG)和微调之间选择正确的技术。
让我们来看看何时对 LLM、较小的模型和预训练模型使用 RAG 与微调。我们将介绍:
大型语言模型利用一种称为预训练的技术,对互联网、代码、社交媒体和书籍等大量文本数据集进行预训练。这使他们能够生成文本、回答问题、翻译语言等,而无需任何特定于任务的数据。然而,他们的知识仍然有限。
检索增强生成 (RAG) 通过在生成文本之前从数据库中检索相关知识作为上下文来增强 LLMs。例如,财务顾问 LLM 可以在提出财务建议之前检索客户的投资历史和概况。
检索增强结合了 LLMs 理解语言的能力与特定领域数据库中相关知识的优势。与普通的 LLMs 相比,这使得 RAG 系统知识更丰富、更一致、更安全。
微调通过针对特定领域的数据进行训练,使预训练的 LLM 适应特定任务。例如,经过预先培训的 LLM 可以根据财务文件进行微调,以提高其财务知识。
然而,与检索增强相比,微调有几个缺点:
相比之下,RAG 系统:
因此,RAG系统通常会获得比微调更好的性能,同时保留原始 LLM 的更多功能。
微调和 RAG 之间的选择取决于模型大小:
对于像 GPT-4 这样具有数万亿参数的大规模模型,RAG 通常比微调更可取:
除非微调任务与预训练非常相似或需要记忆,否则 RAG 更适合 LLMs。
对于 Llama 2 7B、Falcon 7B、Alpaca 7B 等具有数亿参数的中型模型,RAG 和微调都是可行的选择:
在选择时,评估保留中等大小 LLM 的完整常识对你的用例是否重要。
对于像 Zephyr、Phi2 和 Orca 这样具有数千到数百万个参数的小型定制模型,微调通常比 RAG 更合适:
除非你特别需要保留知识的广度,否则微调小模型比 RAG 更可取。
RAG 和微调都是适应预训练模型的适用策略 —— 无论是像 BERT、ELMo、RoBERTa 这样的 LLMs 还是较小的定制模型。
在以下情况下,将 RAG 应用于预训练模型是有效的:
例如,RAG 适合大型会话模型,以避免忘记一般聊天功能,同时用领域知识来增强它们。
在以下情况下,微调对于预训练模型是有利的:
例如,微调对于使用静态公司政策和响应来训练客户服务聊天机器人非常有效。
让我们考虑一下金融服务用例的一般知识与特定领域的知识需求的不同 —— 影响 RAG 与微调选择。
提供定制投资管理和财务建议需要强大的一般会话能力和特定领域的知识。
RAG 通过以下方式非常适合这些应用:
微调可能会损害与客户有效沟通至关重要的一般对话能力。
处理保险索赔主要涉及分析文件、提取关键信息、根据保单验证索赔以及生成索赔报告。
根据过去的索赔和保单对 Llama 2 7B、Falcon 7B 等中型模型进行微调适合此用例:
处理金融服务客户服务的聊天机器人通常需要广泛的对话能力和公司特定常见问题解答、政策和脚本的知识:
这平衡了广泛的对话能力和深入的公司特定知识。
分析金融文件和客户数据以检测洗钱和金融犯罪在很大程度上依赖于学习的模式和领域术语:
通过微调直接训练模型比 RAG 更适合这种专门的文本分析任务。
从客户文档和信件中提取资产、财务目标、风险承受能力等相关关键字需要基本的语言理解,而无需太多领域知识:
按原样使用现成的模型通常比大量微调或 RAG 效果更好。
比较 RAG 和 Fine-tuning 的高级视角:
需要进一步的研究来实现RAG的理论收益。
探索它们的组合是最大限度地发挥每种方法优势的一条有前途的途径。
根据我们的分析,以下是一些最佳实践:
选择 RAG 或微调等正确的技术对于最大限度地提高 LLMs、小型模型和金融服务预训练系统的性能至关重要。这些考虑因素很复杂 —— 取决于模型大小、用例重点、基础设施限制、不断变化的知识需求等因素。混合 RAG 和微调通常是实现对话能力和领域专业知识的最佳选择。随着 LLMs 和增强型人工智能的进步,RAG 将变得更加突出 —— 尽管仍然通过在最适合的地方进行微调来补充。了解这些技术之间细微差别的公司将获得根据其独特需求定制的人工智能优势。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。